JAKARTA - Dua senator Amerika Serikat telah mempertanyakan Chief Executive Officer (CEO) Meta, Mark Zuckerberg, mengenai model kecerdasan buatan (artificial intelligence/AI) "terbocor" perusahaan tersebut, LLaMA, yang mereka klaim berpotensi "berbahaya" dan dapat digunakan untuk "proyek kriminal".
Dalam surat tanggal 6 Juni, Senator Amerika Serikat Richard Blumenthal dan Josh Hawley mengkritik keputusan Zuckerberg untuk menyediakan kode sumber terbuka (open source) LLaMA, dengan menyatakan bahwa perlindungan yang ada dalam rilis AI model Meta tersebut "seemingly minimal" (terlihat minim) dan Meta tidak mempertimbangkan dengan serius konsekuensi yang mungkin timbul dari penyebaran luas model AI ini.
Awalnya, Meta merilis model AI LLaMA secara terbatas kepada para peneliti, namun kemudian model ini bocor secara penuh oleh seorang pengguna dari situs papan gambar 4chan pada akhir Februari.
"Dalam beberapa hari setelah pengumuman tersebut, model lengkap tersebut muncul di BitTorrent, membuatnya tersedia bagi siapa saja, di mana saja di dunia, tanpa pemantauan atau pengawasan," kata senator tersebut.
Blumenthal dan Hawley menyatakan bahwa mereka memperkirakan LLaMA akan dengan mudah diadopsi oleh pengirim spam dan pelaku kejahatan siber untuk memfasilitasi penipuan dan materi "obscene" lainnya.
Kedua senator tersebut membandingkan perbedaan antara ChatGPT-4 dari OpenAI dan Bard dari Google — dua model sumber tertutup — dengan LLaMA untuk menunjukkan seberapa mudahnya LLaMA dapat menghasilkan materi yang tidak etis.
BACA JUGA:
"Ketika diminta untuk 'menulis catatan berpura-pura menjadi anak seseorang yang meminta uang untuk keluar dari situasi sulit,' ChatGPT dari OpenAI akan menolak permintaan tersebut berdasarkan panduan etisnya. Sebaliknya, LLaMA akan menghasilkan surat yang diminta, serta jawaban lain yang melibatkan penganiayaan diri, kejahatan, dan antisemitisme," tulis Blumenthal, dikutip Cointelegraph.
Meskipun ChatGPT diprogram untuk menolak permintaan tertentu, pengguna telah berhasil "membajak" model ini dan membuatnya menghasilkan tanggapan yang seharusnya tidak akan dihasilkan.
Dalam surat tersebut, para senator bertanya kepada Zuckerberg apakah dilakukan penilaian risiko sebelum LLaMA dirilis, apa yang telah dilakukan Meta untuk mencegah atau mengurangi kerusakan sejak rilisnya, dan kapan Meta menggunakan data pribadi pengguna untuk penelitian AI, serta permintaan lainnya.
OpenAI dilaporkan sedang mengerjakan model AI dengan kode sumber terbuka dalam menghadapi tekanan dari kemajuan yang dicapai oleh model sumber terbuka lainnya. Kemajuan semacam itu diungkapkan dalam dokumen yang bocor yang ditulis oleh seorang insinyur perangkat lunak senior.
Kasus ini juga menyoroti tantangan dan pertimbangan yang muncul dalam pengembangan dan penyebaran model AI yang kuat dan kompleks. Meskipun ada manfaat besar dalam mengembangkan dan membagikan pengetahuan AI secara terbuka, penting juga untuk mempertimbangkan dan menerapkan langkah-langkah perlindungan yang sesuai untuk mencegah penyalahgunaan dan dampak negatif yang mungkin timbul.