Bagikan:

JAKARTA - Minggu ini, di Google Responsible AI Summit di Paris, VP Trust & Safety Google, Laurie Richardson mengungkapkan beberapa upaya Google dalam memaksimalkan manfaat dan meminimalkan risiko penggunaan teknologi kecerdasan buatan (AI). 

Pertama, Tim Kepercayaan & Google telah melakukan pelatihan, dan teknik red-teaming untuk memastikan bahwa produk GenAI yang dirilis dibangun dengan bertanggung jawab. Google juga berkomitmen untuk membagikan pendekatan kami secara lebih luas.

Kedua, tim Google di Trust & Safety juga menggunakan AI untuk meningkatkan cara perusahaan melindungi pengguna secara daring. Dengan AI, mereka dapat mengidentifikasi konten yang melanggar dalam skala besar. 

Selain itu, dengan menggunakan LLM raksasa penelusuran itu mampu membangun dan melatih model dengan cepat dalam hitungan hari. Misalnya, dengan LLM, mereka dapat memperluas cakupan jenis pelecehan, konteks, dan bahasa dengan cara yang belum pernah ditemukan sebelumnya. 

Terakhir, untuk menangani konten yang dihasilkan AI, Google rutin berkolaborasi dengan industri dan ekosistem lain untuk menemukan solusi yang terbaik. 

Awal minggu ini, Google mempertemukan para peneliti dan mahasiswa untuk berinteraksi dengan para ahli keselamatan mereka guna membahas risiko dan peluang di era AI. 

Untuk mendukung ekosistem yang menghasilkan penelitian yang berdampak dengan aplikasi di dunia nyata, Google juga menggandakan jumlah penerima Google Academic Research Awards tahun ini untuk mengembangkan investasi dalam solusi penelitian Kepercayaan & Keselamatan.

“Kami berkomitmen untuk menerapkan AI secara bertanggung jawab — mulai dari menggunakan AI untuk memperkuat platform kami terhadap penyalahgunaan hingga mengembangkan alat,” kata Laurie.