AS, Inggris, dan 18 Negara Lain Sepakat Pedoman Internasional Pertama untuk Keamanan AI

JAKARTA -Amerika Serikat, Inggris, dan lebih dari selusin negara lain pada Minggu 26 November mengumumkan apa yang dijelaskan oleh pejabat senior AS sebagai perjanjian internasional pertama yang rinci tentang cara menjaga kecerdasan buatan agar aman dari pelaku nakal. Selain itu juga  mendorong perusahaan untuk membuat sistem kecerdasan buatan yang "aman secara desain."

Dalam dokumen berisi 20 halaman yang diumumkan pada Minggu, 18 negara tersebut setuju bahwa perusahaan yang merancang dan menggunakan kecerdasan buatan perlu mengembangkannya dan menerapkannya dengan cara yang menjaga keselamatan pelanggan dan masyarakat umum dari penyalahgunaan.

Perjanjian ini bersifat tidak mengikat dan sebagian besar membawa rekomendasi umum seperti memantau sistem kecerdasan buatan untuk penyalahgunaan, melindungi data dari pemalsuan, dan memeriksa pemasok perangkat lunak.

Meskipun demikian, direktur Badan Keamanan Siber dan Infrastruktur AS, Jen Easterly, mengatakan penting bahwa begitu banyak negara menyepakati gagasan bahwa sistem kecerdasan buatan harus menempatkan keselamatan sebagai prioritas.

"Ini adalah kali pertama kita melihat afirmasi bahwa kemampuan ini tidak hanya tentang fitur keren dan seberapa cepat kita bisa membawanya ke pasar atau bagaimana kita bisa bersaing untuk menurunkan biaya," kata Easterly dikutip VOI dari Reuters. Ia mengatakan pedoman ini mewakili "kesepakatan bahwa hal paling penting yang perlu dilakukan pada tahap desain adalah keamanan."

Perjanjian ini adalah inisiatif terbaru dalam serangkaian upaya - sebagian kecil di antaranya bersifat mengikat - oleh pemerintah di seluruh dunia untuk membentuk perkembangan kecerdasan buatan, yang pengaruhnya semakin terasa di industri dan masyarakat pada umumnya.

Selain Amerika Serikat dan Inggris, 18 negara yang menandatangani pedoman baru ini termasuk Jerman, Italia, Republik Ceko, Estonia, Polandia, Australia, Chili, Israel, Nigeria, dan Singapura.

Kerangka kerja ini membahas pertanyaan tentang cara menjaga teknologi kecerdasan buatan agar tidak diambil alih oleh peretas dan mencakup rekomendasi seperti hanya merilis model setelah pengujian keamanan yang sesuai.

Ini tidak menangani pertanyaan yang sulit seputar penggunaan yang tepat dari kecerdasan buatan, atau bagaimana data yang mengisi model ini dikumpulkan.

Munculnya kecerdasan buatan telah menimbulkan sejumlah kekhawatiran, termasuk kekhawatiran bahwa itu bisa digunakan untuk mengganggu proses demokratis, meningkatkan kecurangan, atau menyebabkan kehilangan pekerjaan yang dramatis, antara kerugian lainnya.

Eropa berada di depan Amerika Serikat dalam regulasi kecerdasan buatan, dengan para legislator di sana merancang aturan kecerdasan buatan. Prancis, Jerman, dan Italia juga baru-baru ini mencapai kesepakatan tentang cara mengatur kecerdasan buatan yang mendukung "pengaturan diri yang wajib melalui kode etik" untuk model dasar kecerdasan buatan, yang dirancang untuk menghasilkan berbagai output.

Pemerintahan Presiden Joe Biden telah mendorong para legislator untuk mengatur kecerdasan buatan, tetapi Kongres AS yang terpolarisasi membuat sedikit kemajuan dalam melewati regulasi yang efektif.

Gedung Putih berusaha mengurangi risiko kecerdasan buatan bagi konsumen, pekerja, dan kelompok minoritas sambil memperkuat keamanan nasional dengan perintah eksekutif baru pada bulan Oktober.