JAKARTA - Pada Kamis, 16 Februari pemerintah Amerika Serikat mengeluarkan deklarasi mengenai penggunaan yang bertanggung jawab terhadap kecerdasan buatan (AI) di militer, yang akan mencakup "akuntabilitas manusia."
"Kami mengundang semua negara untuk bergabung dengan kami dalam menerapkan norma internasional, sebagaimana hal itu berkaitan dengan pengembangan dan penggunaan militer AI" serta senjata otonom, kata Bonnie Jenkins, Wakil Sekretaris Negara untuk Pengendalian Senjata, seperti dikutip Reuters.
Jenkins berbicara pada sebuah pertemuan internasional tentang penggunaan AI militer yang bertanggung jawab di Den Haag, Belanda, yang merupakan pertama kalinya.
Penggunaan AI pada senjata dan senjata pembunuh massal seharsunya dihindari dan diatur secara ketat. Meskipun AI dapat membantu dalam meningkatkan efisiensi dan presisi dalam operasi militer, namun penggunaannya pada senjata pembunuh dapat membawa risiko yang sangat besar dan tidak etis.
BACA JUGA:
Penggunaan AI pada senjata dapat memunculkan isu tentang akuntabilitas dan kontrol. Hal ini berkaitan dengan kemampuan senjata untuk melakukan keputusan yang mandiri dan mampu melakukan serangan tanpa campur tangan manusia. Jika terjadi kesalahan atau kelalaian, maka sulit untuk menentukan siapa yang bertanggung jawab dan hal ini dapat membawa dampak yang sangat serius terhadap keamanan manusia.
Sebaliknya, penggunaan AI dapat diterapkan pada banyak aspek dalam operasi militer yang tidak melibatkan senjata pembunuh. Contohnya, dalam proses pengumpulan data intelijen, perencanaan strategi, pemantauan area konflik, dan logistik.
Dalam hal ini, AI dapat membantu mempercepat dan meningkatkan kinerja operasi militer tanpa membahayakan keamanan manusia. Oleh karena itu, perlu adanya pengaturan yang ketat dan kontrol yang baik dalam penerapan AI pada operasi militer.