Badan Intelijen Inggris Peringatkan ChatGPT dan Chatbot AI Lain Berbahaya, Bisa Sebar Malware!

JAKARTA - Di saat semua orang berlomba-lomba menciptakan Model Bahasa Besar (LLM) atau Kecerdasan Buatan (AI) generatif, badan intelijen Inggris memperingatkan potensi ancaman keamanan pada ChatGPT dan chatbot pesaing lainnya.

National Cyber ​​​​Security Centre (NCSC) bagian dari Government Communications Headquarters (GCHQ) Inggris menerbitkan sebuah postingan pada blog resmi, yang menyatakan telah menyelidiki mekanisme AI generatif.

Meskipun, dikatakan mereka LLM tidak diragukan lagi mengesankan, itu bukan kecerdasan umum buatan dan mengandung beberapa kelemahan serius.

NCSC merekomendasikan pengguna untuk tidak memasukkan informasi pribadi atau sensitif ke dalam perangkat lunak, baik itu besutan OpenAI maupun yang lainnya.

Menurut NCSC, ada potensi kebocoran privasi dan penggunaan data ilegal oleh penjahat dunia maya. Sebab, LLM dilatih pada kumpulan data besar (seluruh internet), tetapi begitu informasi itu dicerna, mereka tidak terus belajar dari petunjuk yang dimasukkan oleh pengguna, di mana ChatGPT menerima jutaan informasi per hari.

Saat ini, memang tidak ada risiko chatbot mengulangi kueri pengguna sebagai bagian dari jawaban untuk orang lain, semua kueri disimpan oleh pengembangnya.

Namun suatu hari, NCSC berpendapat, pengembang dapat menggunakan kueri tersimpan ini untuk mengembangkan model LLM lebih lanjut.

"Sebuah pertanyaan mungkin sensitif karena data disertakan dalam kueri, atau karena siapa yang mengajukan pertanyaan (dan kapan). Ingat juga agregasi informasi di beberapa kueri menggunakan info masuk yang sama," ungkap NCSC, seperti dikutip dari DailyMail, Kamis, 16 Maret.

Selain digunakan oleh pengembang, lebih berbahaya lagi kueri juga dapat diretas, dibocorkan, atau secara tidak sengaja dipublikasikan. Meskipun browser web biasanya menyimpan riwayat penelusuran dan rentan terhadap situasi serupa, pengguna dapat menghapus penelusuran sebelumnya.

Dalam kasus penggunaan yang lebih jahat, NCSC juga menyatakan chatbot berbasis LLM akan mampu membantu peretas atau penipu membuat email phishing yang lebih meyakinkan dalam berbagai bahasa.

Selain itu, alat tersebut juga dapat membantu penyerang dalam menulis malware lebih canggih daripada yang pernah mereka coba sebelumnya. Lainnya, penyerang yang kurang terampil juga dapat membuat malware berkemampuan tinggi lewat LLM.

Tentang kelemahan dalam LLM sebagai lawan dari kecerdasan umum buatan, pengembang NCSC, Holy Grail menyoroti sejumlah masalah, termasuk bot melakukan kesalahan dan berhalusinasi fakta yang salah, menunjukkan bias dan menjadi mudah tertipu, dan dibujuk untuk membuat konten beracun.

"LLM tidak diragukan lagi mengesankan karena kemampuan mereka menghasilkan sejumlah besar konten yang meyakinkan dalam berbagai bahasa manusia dan komputer," ujar Grail.

Sejak diluncurkan pada November tahun lalu, ChatGPT telah digunakan oleh jutaan orang di seluruh dunia, diadopsi oleh anak sekolah dan bisnis, membantu pekerjaan rumah, dan membuat puisi.

Kemudian tak lama, para pemain besar muncul seperti Microsoft yang memasukkan ChatGPT ke dalam mesin pencari Bing. Peramban web Edge-nya akan segera menyertakan sidebar ChatGPT.

Pada Februari, Google juga meluncurkan chatbot LLM-nya sendiri, Bard. Begitu pula dengan Meta yang memiliki chatbor LLaMA hanya dimaksudkan untuk digunakan oleh mereka yang ada di komunitas AI. Sekarang, perusahaan sedang mengerjakan chatbot publik.