JAKARTA - OpenAI, perusahaan yang menciptakan ChatGPT, secara diam-diam mengubah aturan penggunaan dan menghapus larangan penggunaan chatbot dan alat kecerdasan buatannya untuk keperluan militer.
Pengubahan aturan tersebut terjadi setelah Rabu 17 Januari dan mencakup penghapusan kalimat yang menyatakan bahwa perusahaan tidak akan mengizinkan penggunaan model untuk 'aktivitas yang memiliki risiko tinggi terhadap cedera fisik, termasuk: pengembangan senjata, militer, dan perang.'
Seorang juru bicara OpenAI menyatakan bahwa perusahaan, yang sedang dalam pembicaraan untuk mengumpulkan dana dengan valuasi 100 miliar dolar AS (Rp1.563,1 triliun), bekerja sama dengan Departemen Pertahanan dalam pengembangan alat keamanan siber yang dibangun untuk melindungi perangkat lunak sumber terbuka.
“Kebijakan kami tidak memperbolehkan alat kami digunakan untuk menyakiti orang, mengembangkan senjata, surveilans komunikasi, atau melukai orang lain atau merusak properti. Namun, ada kasus penggunaan keamanan nasional yang sejalan dengan misi kami,” kata juru bicara OpenAI, dikutip VOI dari Daily Mail.
“Contohnya, kami sudah bekerja sama dengan Defense Advanced Research Projects Agency (DARPA) untuk mendorong penciptaan alat keamanan siber baru guna melindungi perangkat lunak sumber terbuka yang menjadi ketergantungan infrastruktur kritis dan industri,” tambahnya.
Belum jelas apakah kasus penggunaan yang bermanfaat ini akan diizinkan dalam kebijakan sebelumnya yang melarang penggunaan untuk tujuan 'militer.' Sebagai tanggapan, tujuan perubahan kebijakan adalah memberikan kejelasan dan kemampuan untuk melakukan diskusi terkait hal ini.
Pada tahun sebelumnya, 60 negara termasuk Amerika Serikat dan China menandatangani 'panggilan aksi' untuk membatasi penggunaan kecerdasan buatan (AI) untuk tujuan militer. Namun, para ahli hak asasi manusia di Den Haag menyoroti bahwa 'panggilan aksi' tersebut tidak memiliki kekuatan hukum dan tidak mengatasi kekhawatiran terkait 'slaughterbots' yang dapat membunuh tanpa intervensi manusia.
Para pihak yang menandatangani menyatakan komitmennya untuk mengembangkan dan menggunakan kecerdasan buatan militer sesuai dengan 'kewajiban hukum internasional dan dengan cara yang tidak merusak keamanan internasional, stabilitas, dan pertanggungjawaban.'
Beberapa negara, seperti Ukraina, telah menggunakan pengenalan wajah dan sistem penargetan yang dibantu AI dalam pertempuran melawan Rusia. Pada tahun 2020, pasukan pemerintah Libya meluncurkan drone otonom Kargu-2 buatan Turki yang menyerang pasukan pemberontak yang sedang mundur. Ini merupakan serangan pertama kali dalam sejarah yang dilakukan oleh drone otonom, menurut laporan PBB.
Anna Makanju, Wakil Presiden Urusan Global OpenAI, mengatakan dalam wawancara minggu ini bahwa ketentuan 'umum' dihapus untuk memungkinkan penggunaan militer yang sesuai dengan nilai perusahaan.
“Karena sebelumnya kami memiliki larangan yang pada dasarnya melibatkan militer, banyak orang berpikir bahwa akan melarang banyak kasus penggunaan ini, yang dianggap orang sangat sejalan dengan apa yang ingin kami lihat di dunia,” kata Makanju dikutip Bloomberg,
BACA JUGA:
Penggunaan kecerdasan buatan oleh organisasi 'Big Tech' sebelumnya telah menimbulkan kontroversi. Pada tahun 2018, ribuan karyawan Google memprotes kontrak Pentagon - Project Maven - yang melibatkan penggunaan alat kecerdasan buatan perusahaan untuk menganalisis rekaman pengawasan drone.
Pasca protes tersebut, Google tidak memperpanjang kontrak tersebut. Karyawan Microsoft juga melakukan protes terhadap kontrak senilai 480 juta dolar AS (Rp7,5 triliun) untuk menyediakan prajurit dengan headset realitas tambahan.
Pada tahun 2017, pemimpin teknologi termasuk Elon Musk menulis surat kepada PBB yang menyerukan agar senjata otonom dilarang, di bawah hukum yang mirip dengan yang melarang senjata kimia dan laser yang dirancang untuk melumpuhkan penglihatan manusia.
Mereka memperingatkan bahwa senjata otonom dapat membawa masuk 'revolusi ketiga dalam perang,' setelah revolusi pertama dengan bubuk mesiu, dan senjata nuklir yang kedua. Para ahli juga mengingatkan bahwa setelah 'kotak Pandora' senjata sepenuhnya otonom dibuka, mungkin tidak akan mungkin untuk menutupnya kembali.