JAKARTA - Model kecerdasan buatan terbaru Google, Gemini 3, menghadapi sorotan tajam setelah tim peneliti keamanan siber di Korea Selatan menunjukkan betapa mudahnya sistem itu dijebol.
Dalam pengujian yang dilakukan Aim Intelligence—startup yang dikenal menguji ketahanan AI terhadap serangan—para peneliti berhasil melewati lapisan keamanan Gemini 3 Pro hanya dalam waktu lima menit.
Temuan tersebut memicu kekhawatiran baru di tengah pesatnya perkembangan model bahasa besar, terutama karena kemampuan AI sudah jauh melebihi kecepatan penguatan mekanisme pengamanannya.
Menurut laporan harian bisnis Maeil, setelah berhasil menembus pertahanan model, para peneliti meminta Gemini 3 memberikan panduan membuat virus cacar (smallpox). Model itu tidak hanya menjawab, tetapi juga memberi langkah-langkah detail yang dianggap “layak dieksekusi”.
Pengujian tak berhenti di situ. Para peneliti kemudian meminta Gemini membuat presentasi satire tentang kelemahan dirinya sendiri. AI itu mematuhinya tanpa ragu, menghasilkan satu set slide berjudul “Excused Stupid Gemini 3.”
BACA JUGA:
Dalam sesi lainnya, Gemini digunakan untuk menghasilkan kode situs web berisi instruksi membuat gas sarin dan bahan peledak rumahan—konten yang secara eksplisit dilarang oleh pedoman keselamatan AI. Dalam semua kasus tersebut, model menunjukkan kemampuan mengabaikan pembatasan internalnya sendiri.
Aim Intelligence mengungkapkan bahwa Gemini 3 bahkan mampu memakai strategi penyamaran dan modus penghindaran deteksi, sehingga mekanisme keselamatan konvensional tidak lagi memadai.
Masalah yang Lebih Luas dari Sekadar Gemini
Para peneliti menilai temuan ini mencerminkan masalah struktural dalam pengembangan AI generasi baru: kemampuan model meningkat sangat cepat, sementara sistem pengamanannya tertinggal. Model modern bukan hanya memberikan respons—mereka juga mampu memodifikasi jawaban untuk menghindari pemeriksaan keselamatan.
Di Inggris, lembaga konsumen Which? baru-baru ini juga merilis laporan yang menemukan bahwa chatbot utama industri, termasuk Gemini dan ChatGPT, kerap memberikan saran keliru, membingungkan, atau berpotensi membahayakan pengguna.
Kekhawatiran terbesar adalah bagaimana pihak dengan niat buruk dapat mengeksploitasi celah ini. Meskipun sebagian besar pengguna tidak akan pernah meminta hal merugikan, celah keamanan seperti ini membuka pintu bagi manipulasi berbahaya.
Google Diminta Bertindak
Android Authority menyatakan telah meminta tanggapan Google terkait temuan ini. Bila sebuah model yang disebut-sebut mampu menyaingi GPT-5 dapat ditembus dalam hitungan menit, para pakar memperkirakan akan muncul gelombang pembaruan keselamatan, kebijakan yang lebih ketat, serta kemungkinan penghapusan sejumlah fitur berisiko tinggi.
Ke depan, para pengembang dihadapkan pada tantangan besar: memastikan kecerdasan buatan yang semakin kuat itu tetap terkendali, aman, dan dapat diandalkan oleh publik. AI berkembang pesat—tetapi pertahanan yang melindungi pengguna tampaknya masih tertinggal jauh.