IMD Ungkap Lima Risiko Utama Pengembangan AGI Bagi Manusia
JAKARTA - Selain Artificial Intelligence (AI), banyak negara yang juga mulai mengembangkan Artificial General Intelligence (AGI), sistem AI yang bisa beroperasi mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.
Namun, The Institute of Management Development (IMD) mengatakan bahwa pengembangan AGI bisa saja menimbulkan risiko yang tinggi dan menjadi musibah bagi umat manusia.
Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan manusia, maka IMD memprediksi akan risiko yang akan terjadi. Pertama, AI akan mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata nuklir, biologi, atau kimia.
“China saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir,” kata Michael Wade, Director Global Center for Digital Business Transformation IMD.
Kedua, ia mengatakan bahwa AI bisa digunakan untuk memanipulasi atau mengganggu pasar keuangan, dan juga infrastruktur penting, seperti energi, transportasi, komunikasi, air, dan lain sebagainya.
Selain itu, penggunaan AI ini juga bisa untuk manipulasi atau mengganggu sistem politik, jaringan sosial, dan ekosistem biologis dan lingkungan, bahkan menjadi ancaman langsung terhadap nyawa manusia.
Maka dari itu, diperlukan regulasi yang tepat untuk mengendalikan perkembangan AGI di dunia. Saat ini, terdapat sejumlah inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan aturan AI.
Baca juga:
Selain aturan dan kebijakan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model AI seperti OpenAI, Meta, dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko AI.
Bahkan, untuk praktik keselamatan AI, sejumlah perusahaan teknologi pengembang AI telah mencoba menerapkan regulasi pengamanan.
Contohnya, OpenAI telah menyediakan Preparedness Framework, Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP).
“Berbagai kerangka kerja ini merupakan langkah penting menjaga keselamatan AI, namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik,” pungkas Wade.