JAKARTA - Startup kecerdasan buatan Anthropic yang didukung oleh pemilik Google Alphabet Inc pada Selasa 9 Mei mengungkapkan serangkaian nilai moral tertulis yang digunakan untuk melatih dan membuat Claude, pesaing teknologi di balik ChatGPT milik OpenAI, menjadi aman.
Pandangan keamanan semakin penting seiring pejabat AS mempelajari apakah dan bagaimana mengatur kecerdasan buatan, mana kala Presiden Joe Biden mengatakan perusahaan memiliki kewajiban untuk memastikan sistem mereka aman sebelum membuatnya publik.
Anthropic didirikan oleh mantan eksekutif dari OpenAI, yang didukung Microsoft Corp, untuk fokus pada menciptakan sistem kecerdasan buatan yang aman yang tidak akan, misalnya, memberitahu pengguna cara membangun senjata atau menggunakan bahasa yang bias rasial.
Co-founder Dario Amodei adalah salah satu eksekutif kecerdasan buatan yang bertemu dengan Biden pekan lalu untuk membahas bahaya potensial dari kecerdasan buatan.
Sebagian besar sistem chatbot kecerdasan buatan bergantung pada umpan balik dari manusia nyata selama pelatihan mereka untuk memutuskan respons yang mungkin berbahaya atau menyinggung.
Namun, sistem tersebut kesulitan dalam memperkirakan semua yang mungkin orang tanyakan, sehingga mereka cenderung menghindari beberapa topik yang berpotensi kontroversial seperti politik dan ras secara keseluruhan, sehingga menjadi kurang berguna.
Anthropic mengambil pendekatan yang berbeda, memberikan kompetitor kecerdasan buatan Open AI-nya, Claude, serangkaian nilai moral tertulis untuk dibaca dan dipelajari saat membuat keputusan tentang bagaimana merespons pertanyaan.
Nilai-nilai tersebut termasuk "memilih respons yang paling menentang penyiksaan, perbudakan, kekejaman, dan perlakuan yang tidak manusiawi atau merendahkan," kata Anthropic dalam sebuah posting blog pada Selasa.
BACA JUGA:
Claude juga diinstruksikan untuk memilih respons yang paling tidak mungkin dianggap menyinggung oleh tradisi budaya non-Barat.
Dalam sebuah wawancara, co-founder Anthropic, Jack Clark, mengatakan konstitusi sistem dapat dimodifikasi untuk melakukan keseimbangan antara memberikan jawaban yang berguna sambil tetap dapat diandalkan tidak menyinggung.
"Dalam beberapa bulan ke depan, saya memprediksi bahwa para politisi akan sangat fokus pada apa nilai-nilai dari sistem kecerdasan buatan yang berbeda, dan pendekatan seperti kecerdasan buatan konstitusional akan membantu dalam diskusi tersebut karena kita bisa menulis nilai-nilai," kata Clark, dikutip Reuters.