Penasihat Tim Kecerdasan Buatan Inggris: Manusia Punya Dua Tahun untuk Mengendalikan dan Mengatur AI Sebelum Terlalu Kuat
Ilustrasi robot yang menggunakan kecerdasan buatan. (foto; dok. pexels)

Bagikan:

JAKARTA - Penasihat tim kecerdasan buatan (AI) dari Perdana Menteri Inggris mengungkapkan bahwa manusia memiliki sekitar dua tahun untuk mengendalikan dan mengatur AI sebelum menjadi terlalu kuat.

Dalam wawancara dengan media lokal di Inggris, Matt Clifford, yang juga menjabat sebagai ketua Advanced Research and Invention Agency (ARIA) Inggris, menekankan bahwa sistem-sistem saat ini semakin "mampu dengan tingkat peningkatan yang semakin pesat."

Dia melanjutkan dengan mengatakan bahwa jika pejabat tidak mempertimbangkan keamanan dan regulasi sekarang, sistem-sistem ini akan menjadi "sangat kuat" dalam dua tahun.

"Kita punya dua tahun untuk membangun kerangka kerja yang membuat pengendalian dan regulasi model-model besar ini jauh lebih mungkin daripada saat ini," ujarnya dikutip Cointelegraph. 

Clifford memperingatkan bahwa ada "banyak jenis risiko" yang terkait dengan AI, baik dalam jangka pendek maupun jangka panjang, yang dia sebut "cukup menakutkan."

Wawancara ini dilakukan setelah terbitnya surat terbuka baru-baru ini yang diterbitkan oleh Center for AI Safety, yang ditandatangani oleh 350 ahli AI, termasuk CEO OpenAI Sam Altman, yang menyatakan bahwa AI harus dianggap sebagai ancaman eksistensial yang sama seperti senjata nuklir dan pandemi.

"Mereka berbicara tentang apa yang terjadi setelah kita efektif menciptakan spesies baru, yaitu kecerdasan yang lebih besar dari manusia," tambah Clifford.

Penasihat tim kecerdasan buatan ini juga mengatakan bahwa ancaman-ancaman yang ditimbulkan oleh AI bisa "sangat berbahaya" dan bisa "membunuh banyak manusia, bukan semua manusia, hanya dari ekspektasi di mana kita berharap model-model berada dalam dua tahun ke depan."

Menurut Clifford, fokus utama regulator dan pengembang haruslah memahami cara mengendalikan model-model tersebut dan kemudian menerapkan regulasi dalam skala global.

Saat ini, dia mengatakan bahwa ketakutan terbesarnya adalah kurangnya pemahaman mengenai mengapa model-model AI berperilaku seperti yang mereka lakukan.

"Orang-orang yang membangun sistem-sistem paling mampu dengan bebas mengakui bahwa mereka tidak memahami dengan tepat bagaimana [sistem AI] menunjukkan perilaku yang mereka miliki," ungkapnya.

Clifford menyoroti bahwa banyak pemimpin organisasi yang membangun AI juga setuju bahwa model-model AI yang kuat harus melewati proses audit dan evaluasi sebelum diterapkan.

Saat ini, regulator di seluruh dunia berusaha memahami teknologi ini dan konsekuensinya, sambil mencoba membuat regulasi yang melindungi pengguna dan tetap memungkinkan terjadinya inovasi.

Pada tanggal 5 Juni, pejabat di Uni Eropa bahkan mengusulkan untuk mewajibkan semua konten yang dihasilkan oleh AI diberi label sebagai konten AI untuk mencegah disinformasi.

Di Inggris, seorang anggota front-bench dari Partai Buruh sebagai oposisi juga mengulangi pandangan yang disampaikan dalam surat Center for AI Safety, dengan mengatakan bahwa teknologi harus diatur seperti obat-obatan dan energi nuklir.

Dalam konteks ini, regulator di seluruh dunia sedang berusaha memahami teknologi AI dan dampaknya, sambil menciptakan regulasi yang melindungi pengguna namun tetap memungkinkan inovasi.

Pada tanggal 5 Juni, pejabat di Uni Eropa bahkan mengusulkan untuk mewajibkan semua konten yang dihasilkan oleh AI diberi label sebagai konten AI guna mencegah penyebaran disinformasi.

Di Inggris, seorang anggota front-bench dari Partai Buruh yang berseberangan dengan pemerintah, juga mengulangi pandangan yang disampaikan dalam surat Center for AI Safety, dengan menyatakan bahwa teknologi harus diatur seperti obat-obatan dan energi nuklir.