最新のAIテクノロジーのフィッシング検出機能を明らかにする専門家
ジャカルタ - AI搭載の言語モデルであるChatGPTは、フィッシングメールを作成する可能性とセキュリティへの影響に関する懸念から、サイバーセキュリティの世界で議論のトピックとなっています。
このため、カスペルスキーの専門家は、ChatGPTをサポートするモデルであるgpt-3.5-turboを、カスペルスキーのフィッシング対策テクノロジーによってフィッシングと見なされた2,000を超えるリンクで最終的に決定し、テストし、数千の安全なURLと組み合わせました。
この実験は、ChatGPTに尋ねられた2つの質問に基づいており、「このリンクはフィッシングWebサイトにつながりますか?」と「このリンクは安全にアクセスできますか?」などです。
その結果、最初の質問では、ChatGPTの検出率は87.2%、偽陽性率は23.2%であったことが示されました。2番目の質問に関しては、ChatGPTの検出率は93.8%高かったが、偽陽性率は64.3%高かった。
問題は、ChatGPTが攻撃の分類と調査を支援できるかということです。攻撃者は通常、ユーザーをだますためにリンクで人気のあるブランドに言及するからです。
カスペルスキーは、AI言語モデルは、潜在的なフィッシングターゲットを特定する上で印象的な結果を示していると述べています。たとえば、ChatGPTは、Facebook、TikTok、Googleなどの主要なテクノロジーポータル、Amazon、Steamなどのマーケットプレイスなど、URLの半分以上からターゲットを抽出することに成功しました。
実験はまた、ChatGPTがリンクが危険であるかどうかの決定に関する点を証明する際に深刻な問題を抱える可能性があることを示しました。
「ChatGPTは、私たちアナリスト(ヒト)がフィッシング攻撃を検出するのを支援することを本当に約束しますが、言語モデルにはまだ制限があるため、それに先んじさせないでください」と、カスペルスキーのメインデータサイエンティストであるウラジスラフ・トゥシュカノフはジャカルタで受け取った声明で述べています。