JAKARTA - Apple mulai membatasi penggunaan ChatGPT dari OpenAI dan Copilot dari Microsoft, demikian dilaporkan oleh The Wall Street Journal. Menurut Mark Gurman dari Bloomberg, ChatGPT sudah masuk dalam daftar larangan selama beberapa bulan di beberapa perusahaan Big Tech.
Tidak hanya Apple, tetapi juga Samsung dan Verizon di dunia teknologi, serta sejumlah bank ternama seperti Bank of America, Citi, Deutsche Bank, Goldman Sachs, Wells Fargo, dan JPMorgan, muali melarang pengunaannya.
Hal ini dikarenakan adanya kemungkinan data rahasia bocor; dalam hal ini, kebijakan privasi ChatGPT secara eksplisit menyatakan bahwa permintaan Anda dapat digunakan untuk melatih modelnya kecuali jika Anda memilih untuk tidak ikut serta. Ketakutan akan kebocoran data tidak berdasar: pada bulan Maret, bug dalam ChatGPT mengungkapkan data dari pengguna lain.
Salah satu penggunaan yang jelas untuk teknologi ini adalah layanan pelanggan, tempat perusahaan berusaha meminimalkan biaya. Tetapi agar layanan pelanggan dapat berfungsi, pelanggan harus memberikan detail mereka—kadang-kadang pribadi, kadang-kadang sensitif. Bagaimana perusahaan merencanakan untuk mengamankan bot layanan pelanggan mereka?
Ini bukan hanya masalah bagi layanan pelanggan. Misalnya, katakanlah Disney telah memutuskan untuk menggunakan AI—daripada departemen VFX—untuk menulis film Marvel-nya. Apakah ada kemungkinan Disney ingin memberi kesempatan bocornya bocoran spoiler Marvel?
Salah satu hal yang umumnya benar tentang industri teknologi adalah bahwa perusahaan tahap awal—seperti Facebook versi awal, misalnya—tidak terlalu memperhatikan keamanan data. Dalam kasus tersebut, masuk akal untuk membatasi paparan materi sensitif, seperti yang disarankan oleh OpenAI sendiri. Ini bukan masalah yang spesifik untuk AI.
Mungkin saja perusahaan-perusahaan besar, canggih, yang sangat memperhatikan kerahasiaan ini hanya berlebihan khawatir dan tidak ada yang perlu dikhawatirkan. Tetapi katakanlah mereka benar. Jika demikian, dapat dipikirkan beberapa kemungkinan untuk masa depan AI chatbot.
Pertama, gelombang AI ternyata sama seperti metaverse: gagal total. Kedua, perusahaan-perusahaan AI terpaksa untuk melakukan perubahan besar dan secara jelas menguraikan praktik keamanan. Ketiga, setiap perusahaan yang ingin menggunakan AI harus membangun model eksklusifnya sendiri atau, setidaknya, menjalankan pemrosesan sendiri, yang terdengar sangat mahal dan sulit untuk ditingkatkan. Keempat adalah mimpi buruk privasi online, di mana maskapai penerbangan Anda (atau penagih hutang, apotek, atau siapa pun) secara teratur membocorkan data Anda.
Tapi jika perusahaan-perusahaan yang sangat memperhatikan keamanan sedang membatasi penggunaan AI mereka, mungkin ada alasan baik bagi kita yang lain untuk melakukannya juga.
Pada akhirnya, bagaimanapun caranya, keamanan data akan menjadi faktor penting dalam pengembangan dan penggunaan AI chatbot. Masalah kebocoran data tidak hanya memengaruhi privasi pengguna, tetapi juga dapat membahayakan perusahaan yang menggunakan teknologi ini.
BACA JUGA:
Untuk mengatasi tantangan ini, perusahaan-perusahaan AI perlu meningkatkan langkah-langkah keamanan mereka, mengadopsi praktik terbaik, dan menjaga integritas data pelanggan dengan sangat serius.
Ke depannya, regulasi yang lebih ketat dan kerja sama antara pihak industri, pemerintah, dan lembaga pengawas mungkin diperlukan untuk memastikan bahwa penggunaan AI chatbot aman dan sesuai dengan kebutuhan privasi pengguna.
Selain itu, perusahaan-perusahaan juga harus berinvestasi dalam penelitian dan pengembangan untuk meningkatkan keamanan AI mereka serta mengedukasi pengguna tentang risiko dan tindakan pencegahan yang dapat diambil.
Dalam dunia yang semakin terhubung secara digital, penting bagi kita semua untuk mempertimbangkan implikasi keamanan dan privasi saat menggunakan teknologi AI. Kita harus mencari keseimbangan antara kemudahan penggunaan dan perlindungan data pribadi, serta terus memperbaiki dan memperkuat perlindungan data dalam pengembangan AI chatbot ke depannya.