Alphabet Inc. Ingatkan Karyawan Tentang Penggunaan Chatbot AI dan Potensi Risiko Keamanan
JAKARTA - Alphabet Inc., induk dari Google dan YouTube, memperingatkan para karyawan mengenai penggunaan chatbot, termasuk programnya sendiri yang bernama Bard, pada saat yang sama dengan pemasaran program tersebut di seluruh dunia. Hal ini disampaikan empat orang yang familiar dengan masalah tersebut kepada Reuters.
Induk perusahaan Google ini telah memberi tahu para karyawan untuk tidak memasukkan materi rahasia perusahaan ke dalam chatbot kecerdasan buatan (AI), dengan mengutip kebijakan yang sudah berlangsung lama mengenai perlindungan informasi.
Chatbot, antara lain Bard dan ChatGPT, adalah program-program yang terdengar seperti manusia dan menggunakan kecerdasan buatan generatif untuk melakukan percakapan dengan pengguna dan menjawab berbagai pertanyaan. Para peninjau manusia dapat membaca percakapan tersebut, dan para peneliti menemukan bahwa AI serupa dapat menghasilkan kembali data yang diabsorb oleh program tersebut selama pelatihan, sehingga meningkatkan risiko kebocoran informasi.
Alphabet juga memberi peringatan kepada insinyurnya untuk menghindari penggunaan langsung kode komputer yang dapat dihasilkan oleh chatbot, demikian dikatakan oleh beberapa orang yang dikutip dalam laporan tersebut.
Menanggapi permintaan komentar, perusahaan tersebut mengatakan Bard dapat memberikan saran-saran kode yang tidak diinginkan, tetapi tetap membantu para pemrogram. Google juga mengatakan bahwa mereka berusaha untuk transparan mengenai keterbatasan teknologinya.
Kekhawatiran ini menunjukkan bagaimana Google berupaya menghindari kerugian bisnis dari perangkat lunak yang diluncurkannya untuk bersaing dengan ChatGPT. Yang dipertaruhkan dalam perlombaan Google melawan ChatGPT yang didukung oleh OpenAI dan Microsoft Corp adalah miliaran dolar investasi dan pendapatan iklan serta cloud yang belum terhitung dari program AI baru.
Kewaspadaan Google juga mencerminkan standar keamanan yang menjadi kebiasaan bagi perusahaan-perusahaan, yaitu memberi peringatan kepada karyawan mengenai penggunaan program chat publik.
Sejumlah perusahaan di seluruh dunia telah menetapkan langkah-langkah pengamanan untuk chatbot AI, antara lain Samsung, Amazon.com, dan Deutsche Bank , demikian menurut perusahaan-perusahaan tersebut yang dihubungi oleh Reuters. Apple, yang tidak memberikan tanggapan atas permintaan komentar, dilaporkan juga mengambil tindakan serupa.
Menurut survei yang dilakukan oleh situs jaringan Fishbowl terhadap hampir 12.000 responden, termasuk dari perusahaan-perusahaan terkemuka di Amerika Serikat, sebanyak 43% dari para profesional menggunakan ChatGPT atau alat AI lainnya pada bulan Januari, seringkali tanpa memberitahu atasan mereka.
Pada bulan Februari, Google memberi tahu staf yang sedang menguji Bard sebelum diluncurkan untuk tidak memberikan informasi internal perusahaan.
Sekarang, Google sedang meluncurkan Bard ke lebih dari 180 negara dan dalam 40 bahasa sebagai landasan untuk kreativitas, dan peringatan mereka juga mencakup saran kode yang dihasilkan.
Google mengatakan kepada Reuters bahwa mereka telah melakukan pembicaraan terperinci dengan Komisi Perlindungan Data Irlandia dan sedang menanggapi pertanyaan regulator, setelah laporan Politico pada Selasa 13 Juni menyebutkan bahwa perusahaan tersebut menunda peluncuran Bard di Uni Eropa minggu ini karena membutuhkan informasi lebih lanjut mengenai dampak chatbot tersebut terhadap privasi.
Teknologi seperti ini dapat menghasilkan email, dokumen, bahkan perangkat lunak itu sendiri, dengan janji untuk mempercepat tugas-tugas tersebut secara signifikan. Namun, di dalam konten tersebut, bisa saja terdapat informasi yang salah, data sensitif, atau bahkan kutipan yang dilindungi hak cipta dari novel "Harry Potter".
Baca juga:
Pada pemberitahuan privasi Google yang diperbarui pada 1 Juni, juga dinyatakan: "Jangan masukkan informasi rahasia atau sensitif ke dalam percakapan Anda dengan Bard."
Beberapa perusahaan telah mengembangkan perangkat lunak untuk mengatasi kekhawatiran semacam ini. Misalnya, Cloudflare, yang melindungi situs web dari serangan siber dan menawarkan layanan cloud lainnya, sedang memasarkan kemampuan bagi bisnis untuk menandai dan membatasi aliran data tertentu ke luar.
Google dan Microsoft juga menawarkan alat percakapan kepada pelanggan bisnis dengan harga yang lebih tinggi, tetapi tidak mengabsorpsi data ke dalam model AI publik. Pengaturan default di Bard dan ChatGPT adalah menyimpan riwayat percakapan pengguna, yang pengguna dapat memilih untuk menghapusnya.
"Penting bahwa perusahaan tidak menginginkan staf mereka menggunakan chatbot publik untuk pekerjaan," kata Yusuf Mehdi, Chief Marketing Officer Konsumen Microsoft.
"Perusahaan mengambil sikap yang konservatif," kata Mehdi. Ia juga menjelaskan bagaimana chatbot gratis Bing milik Microsoft dibandingkan dengan perangkat lunak perusahaan mereka. "Di sana, kebijakan kami jauh lebih ketat."
Microsoft menolak memberikan komentar mengenai apakah mereka melarang staf memasukkan informasi rahasia ke dalam program AI publik, termasuk milik mereka sendiri, meskipun seorang eksekutif yang berbeda di sana mengatakan kepada Reuters bahwa ia secara pribadi membatasi penggunaannya.
Matthew Prince, CEO Cloudflare, mengatakan bahwa mengetikkan masalah rahasia ke dalam chatbot seperti "membiarkan sekelompok mahasiswa PhD mengakses semua catatan pribadi Anda."