シェア:

ジャカルタ - OpenAIは、AIの能力が急速かつ複雑に増加するにつれて、最新のAIモデルがサイバーセキュリティに大きなリスクをもたらす可能性があると警告しています。

12月10日水曜日のブログ投稿で、Microsoftが支援する同社は、将来のモデルがハイエンド防御システムを突破するゼロデイエクスプロイトを開発したり、エンタープライズレベルのハッキング操作を支援したり、物理世界に実質的な影響を与える業界にまで至る可能性があると懸念を表明しました。

この警告は、AIが悪意のあるアクターによって攻撃的に使用される方法に関する世界的な議論の真っ只中に起こりました。OpenAIは、その能力が実験室の実験シナリオを超えて発展し、誤用された場合深刻な結果をもたらす可能性のある「現実世界の能力」に近づき始めたと評価しています。

OpenAIは、開発者やセキュリティチームがコードを監査し、脆弱性のギャップを修正することを容易にするツールなど、サイバー防衛タスクのためのモデルを強化するために投資していると述べています。その軽減戦略には、アクセス制御、インフラストラクチャの強化、データ出力の制限、モデル活動のより厳密な監視が含まれます。

同社はまた、資格のあると見なされ、サイバー防衛に焦点を当てたユーザーや組織に階層化されたアクセスを提供する新しいプログラムを立ち上げる計画を発表しました。アクセスには、一般使用にはあまりにも敏感と考えられる高度な機能が含まれます。

OpenAIは、AIフロンティアのリスク緩和活動を監督するために、経験豊富なサイバーセキュリティ専門家によって構成される諮問グループであるフロンティアリスク評議会を設立します。この評議会は、OpenAIの内部チームと直接協力し、初期段階では、他のフロンティア能力領域に拡大する前に、サイバーセキュリティリスクに焦点を当てます。

OpenAIの公開警告は、この技術が多くの国々の規制枠組みよりも速く動いているときに、AIイノベーションとセキュリティのバランスを維持する方法に関する議論の緊急性を高めます。AIのリスク管理、透明性、ガバナンスに関する対話は、業界が生成された人工知能の暗い側面に直面し始めたため、近い将来にますます浮上すると予想されています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)