Kloning Suara Mengancam Keamanan Online, Deepfake Digunakan dalam Penipuan dan Penculikan
Dane Sherrets, seorang Solutions Architect di HackerOne (foto: x @DaneSherrets)

Bagikan:

JAKARTA - Fenomena baru dalam dunia teknologi yang dikenal sebagai kloning suara telah mengancam keamanan online, Di mana para peretas menggunakan kecerdasan buatan (AI) untuk mensimulasikan suara seseorang.

Para korban terkenal termasuk Stephen Fry, Sadiq Khan, dan Joe Biden telah menjadi korban kloning suara, DI MANA salah satu CEO yang tidak disebutkan namanya bahkan tertipu untuk mentransfer 243.000 dolar AS (Rp3,8 miliar) kepada penipu setelah menerima panggilan telepon palsu.

Kloning suara adalah teknik AI yang memungkinkan peretas untuk mengambil rekaman audio seseorang, melatih alat AI pada suaranya, dan mereproduksinya. Dane Sherrets, seorang Solutions Architect di HackerOne, menjelaskan bahwa teknologi ini awalnya digunakan untuk membuat buku audio dan membantu orang yang kehilangan suaranya karena alasan medis, namun kini semakin sering digunakan oleh industri film Hollywood dan para penipu.

Awalnya, penggunaan teknologi ini terbatas pada para ahli dengan pengetahuan mendalam tentang AI, namun seiring berjalannya waktu, teknologi ini menjadi lebih mudah diakses dan terjangkau. Bahkan, orang dengan pengalaman yang sangat terbatas pun dapat mengkloning suara hanya dalam waktu kurang dari lima menit dengan beberapa alat yang tersedia secara gratis dan open source.

Untuk mengkloning suara saya, Sherrets hanya membutuhkan rekaman lima menit seseorang berbicara. Setelah mengirimkan klip tersebut, ia mengunggahnya ke dalam sebuah alat yang kemudian dapat "dilatih" pada suara tertentu. Hasilnya, suara klon itu sangat meyakinkan, bahkan tanpa adanya jeda atau infleksi tambahan.

Namun, teknologi ini juga memiliki potensi bahaya serius. Beberapa orang telah menjadi korban panggilan palsu terkait penculikan, di mana suara anak mereka diduga telah diculik, meminta pembayaran tebusan dengan suara yang sangat stres. Para peretas juga dapat menggunakan teknologi ini untuk melakukan serangan sosial yang lebih terarah terhadap perusahaan dan organisasi, seperti memalsukan suara CEO untuk mendapatkan informasi rahasia atau akses ke sistem.

Untuk melindungi diri dari ancaman kloning suara, penting untuk memperhatikan tanda-tanda kunci dalam audio, seperti jeda yang tidak wajar, frasa yang tidak alami, atau kebisingan di latar belakang. Juga disarankan untuk tidak ragu-ragu untuk menanyakan pertanyaan yang hanya orang asli yang sebenarnya dapat jawab dan menetapkan kata sandi aman dengan keluarga dan teman-teman.

Selain itu, penting untuk sadar akan jejak digital kita dan membatasi informasi pribadi yang diunggah secara online, karena setiap informasi yang kita bagikan dapat digunakan untuk melatih AI dan digunakan melawan kita di masa depan.

Dengan kesadaran dan tindakan pencegahan yang tepat, diharapkan kita dapat melindungi diri dari ancaman kloning suara dan menjaga keamanan online kita.