Panggilan Otomatis Deepfake Guncang Pemilihan di New Hampshire, Diduga Campur Tangan dalam Pemilihan Presiden 2024

JAKARTA - Penduduk di New Hampshire menerima permintaan politik yang tidak biasa pada akhir pekan 20-21 Januari. Panggilan otomatis yang menampilkan suara yang banyak dianggap sebagai suara Presiden Amerika Serikat Joe Biden memberi tahu mereka untuk tidak memilih dalam pemilihan pendahuluan pada 23 Januari.

Pesan otomatis tersebut tampaknya dihasilkan oleh alat kecerdasan buatan (AI) deepfake dengan tujuan yang jelas untuk mencampuri pemilihan presiden 2024. Dalam rekaman audio yang diambil oleh NBC, penduduk disuruh untuk tetap di rumah selama pemilihan.

“Memilih pada hari Selasa hanya memberdayakan Partai Republik dalam upaya mereka untuk memilih Donald Trump lagi. Suara Anda berpengaruh pada November, bukan pada hari Selasa ini.”

Kantor Jaksa Agung AS mengeluarkan pernyataan mengecam panggilan tersebut sebagai informasi yang salah. Mereka menambahkan bahwa "para pemilih New Hampshire seharusnya mengabaikan sepenuhnya isi pesan ini." Sementara itu, juru bicara mantan Presiden AS, Donald Trump, membantah keterlibatan kandidat Partai Republik atau kampanyenya.

Penyelidik sepertinya belum mengidentifikasi sumber panggilan tersebut, tetapi penyelidikan sedang berlangsung.

Dalam berita terkait, skandal politik lainnya terkait deepfake audio terjadi akhir pekan ketika audio AI yang mengimitasi pemimpin Partai Demokrat Manhattan, Keith Wright, muncul pada 21 Januari. Audio deepfake tersebut menampilkan tiruan suara Wright yang merendahkan anggota Majelis Demokrat lainnya, Inez Dickens.

Menurut laporan dari Politico, beberapa orang menganggap audio tersebut palsu, tetapi setidaknya satu tokoh politik sesaat terkecoh bahwa itu nyata.

Anggota Partai Demokrat Manhattan dan Mantan Ketua Dewan Kota, Melissa Mark-Viverito, mengatakan kepada Politico bahwa pada awalnya mereka mengira deepfake itu kredibel.

"Saya pikir, 'oh tidak.' Saya pikir itu nyata," ujarnya.

Para ahli percaya bahwa pelaku jahat memilih deepfake audio daripada video karena konsumen cenderung lebih cermat ketika menyangkut pemalsuan visual. Seperti yang disampaikan penasihat AI Henry Ajder kepada Financial Times, "semua orang terbiasa dengan Photoshop atau setidaknya tahu itu ada."

Hingga saat artikel ini diterbitkan, tidak ada metode universal yang dapat mendeteksi atau mencegah deepfake. Para ahli merekomendasikan untuk berhati-hati ketika berurusan dengan media dari sumber yang tidak diketahui atau meragukan, terutama ketika klaim yang luar biasa terlibat.