オンラインセキュリティを脅かす声のクローニング、ディープフェイクは詐欺や誘拐に使用されます

ジャカルタ - 音声クローニングとして知られる技術の世界における新しい現象は、ハッカーが人工知能(AI)を使用して個人の声をシミュレートするオンラインセキュリティを脅かしています。

スティーブン・フライ、サディク・カーン、ジョー・バイデンを含む有名な犠牲者は、音声クローニングの犠牲者であり、匿名のCEOの一人であるDI MANAは、偽の電話を受けて詐欺師に243,000米ドル(38億ルピア)を送金するようにだまされました。

音声クローニングは、ハッカーが自分の音声録音をキャプチャし、音声のAIツールを訓練し、それらを複製できるAIテクニックです。HackerOneのソリューションアーキテクトであるDane Sher ット氏は、このテクノロジーはもともとオーディオブックを作成し、医療上の理由で音を失った人々を支援するために使用されていたが、現在はハリウッド映画業界や詐欺師によってますます使用されていると説明した。

当初、このテクノロジーの使用はAIの深い知識を持つ専門家に限定されていましたが、時間が経つにつれて、このテクノロジーはよりアクセスしやすく、手頃な価格になりました。実際、非常に限られた経験を持つ人々は、いくつかのツールが無料でオープンソースで利用可能である場合、わずか5分で音声クローンを作成できます。

私の声をクローンアップするには、シェレットは誰かが話している5分間の録音しか必要としませんでした。クリップを送信した後、彼はそれをツールにアップロードし、特定のサウンドで「クローン」することができます。その結果、クローンの音は、追加のタイムラグやインフレーションがなくても、非常に説得力があります。

しかし、この技術は深刻な危険の可能性もあります。誘拐に関連する偽の電話の犠牲者となり、子供の声が誘拐されたとされ、非常にストレスの多い声で身代金を要求する人もいます。ハッカーは、このテクノロジを使用して、CEOの声を改ざんして機密情報やシステムへのアクセスを取得するなど、企業や組織に対してよりターゲットを絞った社会的攻撃を実行することもできます。

音声クローニングの脅威から身を守るためには、不自然な一時停止、不自然なフレーズ、バックグラウンドのノイズなど、音声のキーマークに注意を払うことが重要です。また、本物の人だけが実際に答え、家族や友人と安全なパスワードを設定できる質問を躊躇しないことをお勧めします。

さらに、共有する情報はAIの訓練に使用され、将来的には私たちに対して使用される可能性があるため、デジタルフットプリントを認識し、オンラインでアップロードされる個人情報を制限することが重要です。

適切な意識と予防策により、音声クローニングの脅威から身を守り、オンラインの安全性を維持できることが期待されています。