ユーロポールは、フィッシングと偽情報に対するChatGPTチャットボットの悪用の可能性について警告しています
ジャカルタ - 欧州連合(EU)警察は3月27日月曜日、フィッシング、偽情報、サイバー犯罪の試みのための人工知能に裏打ちされたChatGPTチャットボットの潜在的な誤用について警告しました。これにより、法的問題から倫理的問題まで、さまざまな懸念が追加されます。
昨年末の発売以来、マイクロソフトが支援するOpenAIのChatGPTはテクノロジートレンドを煽っており、競合他社は同様の製品や企業を立ち上げて、それらや類似の技術をアプリや製品に統合しています。
🚨📄 New #TechWatch flash report: “ChatGPT - the impact of Large Language Models on Law Enforcement.”➡️ The report provides an overview on the potential criminal misuse of LLMs and discusses the impact they might have on law enforcement.Read it here ⤵️https://t.co/M8X8EQis26 pic.twitter.com/8ZZoiLsdzX
— Europol (@Europol) March 27, 2023
「ChatGPTのようなLLM(大手言語モデル)の能力が積極的に改善されるにつれて、犯罪者によるこの種のAIシステムの悪用の可能性は陰鬱な見通しを提供します」とユーロポールはチャットボットから始まる最初の技術報告書を発表した。
ユーロポールは、3つの犯罪分野でChatGPTの有害な使用を強調しました。
「ChatGPTの非常に現実的なテキストを作成する能力は、フィッシング目的のための便利なツールになります」と、ロイターが引用したように、ユーロポールは述べています。
特定の個人やグループの話し方を模するために言語パターンを再現する能力により、チャットボットは犯罪者が被害者を標的にするために使用できる、とEUの法執行機関は述べた。
ユーロポールは、ChatGPTが本物の音声テキストをスピードとスケールで生成する能力も、プロパガンダと偽情報のための理想的なツールになると述べています。
「これにより、ユーザーは特定の物語を反映したメッセージを生成して広めることができ、比較的少数の努力ができます」とユーロポールは付け加えました。
ユーロポールによると、技術的な知識がほとんどない犯罪者は、悪意のあるコードを作成するためにChatGPTに切り替えることができます。