Kepala Teknologi IBM Menggarisbawahi Risiko Penggunaan ChatGPT dalam Bisnis
JAKARTA - Kepala Teknologi IBM Automation, Jerry Cuomo, baru-baru ini menerbitkan sebuah posting blog yang menguraikan beberapa risiko yang ia klaim terkait dengan penggunaan ChatGPT untuk perusahaan.
Menurut posting blog tersebut, ada beberapa area risiko kunci yang harus dipertimbangkan oleh bisnis sebelum menggunakan ChatGPT. Namun, pada akhirnya, Cuomo menyimpulkan bahwa hanya data yang tidak sensitif yang aman dengan ChatGPT:
“Setelah data Anda masuk ke ChatGPT," tulis Cuomo, “Anda tidak memiliki kendali atau pengetahuan tentang bagaimana data tersebut digunakan.”
Menurut postingan tersebut, jenis kebocoran data yang tidak disengaja ini juga dapat menarik bisnis untuk bertanggung jawab secara hukum jika data mitra, pelanggan, atau klien terkena publik setelah bocor ke dalam data pelatihan ChatGPT.
Cuomo juga menyebut risiko terhadap kekayaan intelektual dan kemungkinan bahwa kebocoran dapat membuat bisnis melanggar perjanjian sumber terbuka.
Menurut posting blog IBM: “Jika informasi sensitif dari pihak ketiga atau perusahaan internal dimasukkan ke dalam ChatGPT, maka informasi tersebut menjadi bagian dari model data chatbot dan dapat dibagikan kepada orang lain yang bertanya pertanyaan terkait.”
Baca juga:
Cointelegraph menghubungi OpenAI untuk memberikan komentar mengenai pernyataan di atas dan mendapat tanggapan berikut dari perwakilan hubungan masyarakat melalui email: “[T]data tidak akan dibagikan kepada orang lain yang bertanya pertanyaan yang relevan.”
Perwakilan tersebut juga merujuk pada dokumentasi yang ada mengenai fitur privasi ChatGPT, termasuk posting blog yang menjelaskan kemampuan pengguna web untuk mematikan riwayat obrolan mereka. API ChatGPT memiliki fitur berbagi data yang dimatikan secara default, menurut OpenAI.
Namun, para kritikus telah menunjukkan bahwa percakapan di versi web disimpan secara default. Pengguna juga harus memilih keluar dari penyimpanan percakapan mereka — fitur yang nyaman untuk melanjutkan dari mana mereka berhenti — dan juga memilih keluar dari penggunaan data mereka untuk melatih model. Saat ini, belum ada opsi untuk menyimpan percakapan tanpa menyetujui berbagi data.