ジャカルタ - アラブ首長国連邦の警察は、AIが会社の取締役の声を複製し、大規模な盗難で3500万米ドル(Rp492百万)を盗むために使用されたとされる事件を調査しています。
これは驚くべき珍しい犯罪ですが、詐欺師がAIベースの音声なりすましを使用して大胆な強盗を実行したのは初めてではありません。
このような技術が同様の詐欺に使用されている以前の例は、英国の犯罪者が約243,000ドルを不正に転送するためにエネルギー会社のCEOの声を模倣するためにdeepfakeソフトウェアを使用したと言われた2019年に発生しました。
人工知能は今後数年間でチャンスの波を開くと予想されますが、技術がもたらす脅威も非常に現実的です。
自動化によって引き起こされる失業は、多くの場合、AIの最も差し迫った問題と考えられていますが、この技術は、顔認識の使用が横行するプライバシーの脅威、音声と類似性を操作することによって作成されたオーディオおよびビデオディープフェイクなど、他の分野でも深刻な課題を抱えています。
前者は主流メディアで注目を集める傾向がありますが、後者は、この詐欺事件が示すように、大きな脅威でもあります。
Forbesが報告したように、詐欺に使用されている投票操作の最新の例は、犯罪者が買収のために3500万米ドル相当の資金を振り込むために銀行の取締役の票を複製するためにAIを使用したと言われている2020年初めにアラブ首長国連邦で発生しました。
銀行のマネージャーは、すべてが合法的であると信じて正式に移転を行いました, それは後でハイテク犯罪者によって調整された精巧な詐欺であることを認識するために.結局のところ、詐欺師は巨額の詐欺管理者や詐欺銀行に「深い声」技術を使用してきました。
アラブ首長国連邦、米国当局に支援を要請
裁判所の文書によると、アラブ首長国連邦の捜査官は現在、米国の銀行口座に保管されていると思われる盗まれた資金の40万ドルを追跡するために、米国当局に助けを求めています。残りの資金は、世界のさまざまな国で異なる名前を持つ多くの異なる銀行で保有されていると考えられています。アラブ首長国連邦当局によると、少なくとも17人がこの計画に関与したが、彼らの名前と国籍はすぐには明らかではなかった。
サイバーセキュリティ企業ESETの専門家、ジェイク・ムーア氏は、ディープフェイクが「データ、お金、ビジネスに対する巨大な脅威」を引き起こすため、オーディオとビデオの「deepfake」技術は間違った手の本当の問題になる可能性があると述べた。ムーアはまた、企業の増加は、将来的に同様の現実的なディープフェイクオーディオ詐欺の犠牲になる可能性が高いと付け加えています。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)