Bagikan:

JAKARTA - Baik senator dari Partai Demokrat maupun Partai Republik mengungkapkan keprihatinan pada Selasa 25 Juli tentang potensi penggunaan kecerdasan buatan (AI) untuk tujuan jahat, terutama terkait kemungkinan AI digunakan untuk menciptakan serangan biologis.

Dalam sebuah dengar pendapat di hadapan subkomite Komite Yudisial Senat, Dario Amodei, kepala eksekutif perusahaan AI bernama Anthropic, mengatakan bahwa AI dapat membantu para pelaku jahat yang sebelumnya tidak memiliki keterampilan khusus untuk mengembangkan senjata biologi.

"Istilah langkah-langkah produksi senjata biologi melibatkan pengetahuan yang tidak dapat ditemukan di Google atau dalam buku teks dan memerlukan tingkat keahlian yang tinggi," ujar Amodei, yang perusahaannya bekerja sama dengan para ahli biokeamanan dalam sebuah studi tentang risiko biologis yang timbul dari AI. "Kami menemukan bahwa alat AI saat ini dapat melengkapi beberapa langkah ini."

Amodei menyatakan bahwa AI belum mampu membantu membangun senjata biologi, dan menyebutnya sebagai risiko "jangka menengah."

"Dengan memungkinkan lebih banyak pelaku untuk melancarkan serangan biologi dalam skala besar, kami percaya bahwa ini merupakan ancaman serius terhadap keamanan nasional AS," tambahnya, dikutip Reuters.

Ketua subkomite, Senator Richard Blumenthal, seorang Demokrat, mengekspresikan keprihatinannya.

"Para ahli yang membangun sistem-sistem ini memperingatkan tentang kepunahan manusia," ujarnya dalam sambutan pembuka. "Tujuan dari dengar pendapat ini adalah untuk menyiapkan dasar legislasi. Untuk beralih dari prinsip-prinsip umum, ke rekomendasi khusus. Menggunakan dengar pendapat ini untuk membuat undang-undang."

Senator Josh Hawley, seorang Republikan, menyerukan adanya mekanisme pengamanan "yang akan memastikan bahwa teknologi baru ini benar-benar bermanfaat bagi rakyat Amerika."

Dengar pendapat ini dilaksanakan beberapa hari setelah perusahaan-perusahaan AI termasuk OpenAI, Alphabet, dan Meta Platforms melakukan komitmen sukarela kepada Gedung Putih pekan lalu untuk mengimplementasikan langkah-langkah seperti memberi tanda air (watermarking) pada konten yang dihasilkan AI guna meningkatkan keamanan teknologi tersebut.

Sejak kecerdasan buatan generatif, yang menggunakan data untuk menciptakan konten baru seperti tulisan manusia yang terdengar alami seperti ChatGPT, menjadi sorotan awal tahun ini, para pembuat kebijakan di seluruh dunia mulai mempertimbangkan cara untuk mengurangi bahaya teknologi baru ini terhadap keamanan nasional dan ekonomi.