シェア:

ジャカルタ - 英国当局は、人工知能(AI)ベースのチャットボットをビジネスに統合することについて組織に警告している。彼らによれば、チャットボットがだまされて悪意のあるタスクを実行できることが研究で明らかになりつつあるという。

英国国立サイバーセキュリティセンター(NCSC)は、8月30日水曜日に公開予定の2つのブログ投稿で、人間のような対話を生み出す可能性のあるアルゴリズムに関連する潜在的なセキュリティ問題を専門家がまだ完全に理解していないと述べた。いわゆる言語モデル専攻、または LLM です。

人工知能を活用したこれらのツールは現在、チャットボットとして使用され始めており、インターネット検索だけでなく、顧客サービスの仕事や営業電話にも代わると考えている人もいます。

NCSC は、特にモデルが組織のビジネス プロセスの他の要素にリンクされている場合、これにはリスクが伴う可能性があると述べています。学者や研究者は、チャットボットに不正なコマンドを与えたり、内部の安全装置を回避させたりすることで、チャットボットを改ざんする方法を繰り返し発見してきました。

たとえば、人工知能を搭載し銀行で使用されているチャットボットは、ハッカーが質問を正しく設計した場合、だまされて不正な取引を行う可能性があります。

「LLMを使用してサービスを構築している組織は、まだベータ版の製品やコードライブラリを使用している場合と同様に注意する必要があります」とNCSCはブログ投稿の1つで、実験的なソフトウェアリリースに言及して述べた。

ロイター通信が伝えたところによると、NCSCは「彼らはおそらく、その製品が顧客に代わって取引を行うことを許可しないだろうし、彼らを全面的に信頼すべきではない。LLMに対しても同様の注意を払うべきだ」と述べた。

世界中の当局は、企業が販売や顧客サービスを含むさまざまなサービスに統合している OpenAI の ChatGPT などの LLM の使用増加に苦戦しています。人工知能のセキュリティへの影響もまだ開発中だが、米国とカナダの当局は、ハッカーがこの技術を採用しているのを目撃していると述べている。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)