Peretas dan Propagandis Gunakan Kecerdasan Buatan (AI) untuk Aksi Jahat
Sami Khoury dari Canadian Centre for Cyber Security, (foto: twitter @cse_cst)

Bagikan:

JAKARTA - Pejabat keamanan siber terkemuka Kanada, Sami Khoury dari Canadian Centre for Cyber Security, mengungkapkan bahwa peretas dan propagandis telah menggunakan kecerdasan buatan (AI) untuk membuat perangkat lunak berbahaya, menyusun email phishing yang meyakinkan, dan menyebarkan disinformasi secara daring.

Ini adalah bukti awal bahwa revolusi teknologi yang melanda Silicon Valley juga telah diadopsi oleh para penjahat siber.

Dalam wawancara dengan Reuters pekan ini, Sami Khoury menyatakan bahwa lembaganya telah melihat AI digunakan "dalam email phishing, atau menyusun email dengan cara yang lebih terfokus, dalam kode berbahaya, serta dalam penyebaran informasi yang salah."

Meskipun Khoury tidak memberikan rincian atau bukti, pernyataannya mengenai penggunaan AI oleh para penjahat siber menambah urgensi dalam kekhawatiran tentang penggunaan teknologi yang sedang berkembang ini oleh aktor-aktor jahat.

Beberapa bulan terakhir, beberapa kelompok penjaga keamanan siber telah menerbitkan laporan yang memperingatkan tentang risiko hipotetis AI - terutama program pemrosesan bahasa yang maju dengan cepat yang dikenal sebagai Large Language Models (LLM), yang menggunakan volume teks yang besar untuk menyusun dialog, dokumen, dan lainnya yang terdengar meyakinkan.

Pada Maret lalu, organisasi kepolisian Eropa, Europol, menerbitkan laporan yang menyatakan bahwa model seperti ChatGPT milik OpenAI telah membuatnya mungkin "untuk menyamar sebagai organisasi atau individu dengan cara yang sangat realistis, bahkan dengan pemahaman dasar tentang bahasa Inggris."

Pada bulan yang sama, National Cyber Security Centre Inggris mengatakan dalam sebuah kiriman blog bahwa ada risiko para penjahat "dapat menggunakan LLM untuk membantu dalam serangan siber di luar kemampuan mereka saat ini."

Para peneliti keamanan siber telah menunjukkan berbagai kemungkinan penggunaan berbahaya dan beberapa di antaranya bahkan mengatakan bahwa mereka mulai melihat konten yang diduga dihasilkan oleh AI di internet.

Pekan lalu, seorang mantan peretas mengatakan bahwa ia telah menemukan LLM yang dilatih dengan materi berbahaya dan memintanya untuk menyusun upaya meyakinkan untuk menipu seseorang agar melakukan transfer uang.

LLM tersebut merespons dengan email tiga paragraf yang meminta bantuan terkait tagihan mendesak.

"Saya mengerti bahwa ini mungkin pemberitahuan mendadak," kata LLM tersebut, "tetapi pembayaran ini sangat penting dan harus dilakukan dalam 24 jam."

Khoury mengatakan bahwa meskipun penggunaan AI untuk menyusun kode berbahaya masih dalam tahap awal - "masih ada perjalanan yang harus ditempuh karena menulis eksploitasi yang baik memerlukan banyak hal" - kekhawatiran muncul karena model AI berkembang begitu cepat sehingga sulit untuk memahami potensi jahatnya sebelum dilepaskan ke dunia maya.

"Siapa yang tahu apa yang akan datang," katanya.