JAKARTA - Samsung cukup percaya dengan ChatGPT besutan OpenAI, dengan menggunakan alat tersebut untuk merampingkan proses dan meningkatkan bisnis chip-nya. Tetapi, hal itu justru menjadi malapetaka bagi perusahaan.
Berselang tiga minggu usai memperkenalkan ChatGPT kepada karyawannya, laporan muncul telah terjadi kebocoran informasi semikonduktor rahasia milik Samsung, menyebabkan kekhawatiran tentang keamanan data dan pelanggaran kerahasiaan.
Menurut laporan yang beredar, kebocoran pertama terjadi ketika seorang karyawan Samsung di departemen Semiconductor and Device Solutions menemukan masalah terkait database pengukuran peralatan semikonduktor.
Mereka kemudian mencari solusi cepat dengan memasukan kode sumber ke dalam ChatGPT. Kebocoran kedua terjadi ketika karyawan berbeda mencoba memahami hasil dan informasi lainnya dengan lebih baik menggunakan chatbot tersebut, dia lalu memasukkan kode ke dalam ChatGPT dan memintanya untuk dioptimalkan.
Terakhir, kebocoran ketiga terjadi saat karyawan yang lainnya menginstruksikan ChatGPT untuk membuat notulen rapat. Tanpa disadari semua informasi yang dimasukkan karyawan Samsung ke dalam ChatGPT akan atau sudah menjadi bagian dari data pelatihan chatbot AI itu.
BACA JUGA:
Menyadari hal ini, Samsung dengan cepat mengambil langkah-langkah untuk mencegah kebocoran lebih lanjut, termasuk menginstruksikan karyawan untuk berhati-hati tentang data yang mereka bagikan kepada ChatGPT dan membatasi kapasitas setiap entri hingga maksimal 1.024 byte.
Setelah informasi dimasukkan ke chatbot AI, perusahaan lalu mengirim informasi itu ke server eksternal yang tidak dapat dipulihkan atau dihapus, seperti dikutip dari Gizmochina, Selasa, 4 April.
Insiden tersebut menyoroti pentingnya keamanan data dan kebutuhan perusahaan untuk mempertimbangkan menggunakan chatbot AI ke tempat kerja mereka.
Meskipun chatbot AI dapat meningkatkan efisiensi dan merampingkan proses, mereka juga memerlukan perlindungan dan pelatihan yang tepat untuk memastikan kerahasiaan serta keamanan informasi sensitif.