Deepfake自动呼叫在新汉普希尔州敲响选举,涉嫌在2024年总统大选中混乱
使用乔·拜登的声音在美国总统大选中出现deepfakes(照片:x @potus)

雅加达 - 新汉普希尔邦的居民在1月20日至21日周末收到了不寻常的政治请求。许多人投票的自动呼叫被认为是美国总统乔·拜登(Joe Biden)的选票,通知他们在1月23日的初选中不要投票。

自动消息似乎是由人工智能(AI)工具deepfakes生成的,其明确目的是干涉2024年总统大选。在NBC拍摄的录音中,居民被告知在选举期间留在家中。

“周二的选民只会让共和党人再次投票给唐纳德·特朗普。你的声音在11月受到影响,而不是在这个星期二。

美国总检察长办公室发表声明谴责通话是虚假信息。他们补充说,“新汉普希尔州的选民应该完全忽视这一信息的内容”。与此同时,美国前总统唐纳德·特朗普的发言人否认共和党候选人或他的竞选活动的参与。

调查人员似乎尚未确定通话的来源,但调查正在进行中。

相关新闻中,另一个与音频深伪相关的政治丑闻发生在1月21日出现的人工智能音频,模仿曼哈顿民主党领袖基思·赖特(Keith Wright)。深伪音频显示了赖特贬低民主党议员伊内兹·迪肯斯(Inez Dickens)的模仿。

根据Politico的一份报告,有几人认为音频是假的,但至少有一位政治人物立即被愚弄它是真实的。

曼哈顿民主党成员和前市议会议长梅丽莎·马克-维维雷托(Melissa Mark-Viverito)告诉Politico,起初他们认为deepfakes是可信的。

「我想,'哦,不。我认为这是真的,“他说。

专家认为,邪恶的肇事者选择deepfakes音频而不是视频,因为消费者在视觉伪造方面往往更小心。AI顾问亨利·阿吉德(Henry Ajder)告诉金融时报,“每个人都习惯了Photoshop,或者至少知道它存在”。

本文出版之前,未有普遍的方法可以检测或防止Deepfakes。专家建议在处理来自未知或可疑来源的媒体时要小心,特别是当涉及出色的索赔时。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)