ジャカルタ - カナダサイバーセキュリティセンターのカナダの著名なサイバーセキュリティ当局者、サミ・クーリー氏は、ハッカーやプロパガンダが人工知能(AI)を使用して悪意のあるソフトウェアを作成し、説得力のあるフィッシングメールを編集し、偽情報をオンラインで広めていることを明らかにしました。
これは、シリコンバレーを襲った技術革命がサイバー犯罪者によっても採用されたという予備的な証拠です。
今週のロイターとのインタビューで、サミ・コーリーは、彼の機関はAIが「フィッシングメール、またはより焦点を絞った方法、悪意のあるコード、誤った情報の拡散で電子メールを編集する際に」使用されているのを見たと述べた。
Khouryは詳細や証拠を提供しなかったが、サイバー犯罪者によるAIの使用に関する彼の声明は、悪意のある人物によるこの技術の開発された使用に関する懸念の緊急性に加わった。
ここ数ヶ月、いくつかのサイバーセキュリティガードグループが、AIの架空のリスク、特に大音量言語モデル(LLM)として知られる急速に進歩する言語処理プログラム(大音量言語モデル)を警告するレポートを発表し、大量のテキストを使用して対話、ドキュメントなどをコンパイルします。
3月、欧州警察機関のユーロポールは、OpenAIのChatGPTのようなモデルは、彼が「英語を基本的に理解していても、非常に現実的な方法で組織や個人になりすます」ことを可能にしたと指摘する報告書を発表した。
同月、英国の国立サイバーセキュリティセンターはブログ記事で、犯罪者が「LLMを使用して現在の能力を超えたサイバー攻撃を支援することができる」リスクがあると述べた。
サイバーセキュリティの研究者は、さまざまな悪意のある使用の可能性を指摘しており、そのうちのいくつかは、インターネット上でAIによって生成されたとされるコンテンツを見始めているとさえ言っています。
先週、元ハッカーは、危険物で訓練されたLLMを見つけ、誰かをだまして送金させる説得力のある試みを考案するよう依頼したと述べました。
LLMは、緊急請求書に関する支援を求める3段落の電子メールで応答しました。
「これは突然の通知である可能性があると理解しています」とLLMは言い、「しかし、この支払いは非常に重要であり、24時間以内に行う必要があります」。
Khoury氏は、悪意のあるコードをコンパイルするためのAIの使用はまだ初期段階にあるが、「良いエクスプロイトを書くには多くのことを必要とするため、まだ道のりがある」と述べ、AIモデルが非常に急速に進化し、サイバースペースにリリースされる前にその悪意のある可能性を理解することが困難になるにつれて懸念が生じる。
「何が起こるかは誰が知っている」と彼は言った。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)