カスペルスキーの専門家がAIの利点を安全に受け入れる方法を明らかに
ジャカルタ - 経済的危険を引き起こすことに加えて、人工知能(AI)によって生成されたサイバー攻撃も潜在的な心理的危険を引き起こす可能性があることが判明しました。
最近、カスペルスキーのグローバル調査分析チーム(GReAT)アジア太平洋研究センターの責任者であるVitaly Kamluk氏は、サイバー犯罪者がAIを使用して攻撃を開始するとき、彼らはその影響について責任を感じていないことを発見しました。
彼によると、AIはサイバー犯罪者の犯罪行為をさらに曖昧にするからです。
ITセキュリティチームに影響を与える可能性のあるAIのもう1つの心理的影響は、「責任の委任」です。なぜなら、ネットワークに自動化されるサイバーセキュリティプロセスとツールが増えれば増えるほど、特に企業環境でサイバー攻撃が発生した場合、人間は責任を欠いていると感じる可能性があるためです。
このため、KamlukはAIの利点を安全に受け入れるためのいくつかのガイドラインを共有しています。
アクセシビリティ:非常に豊富な量のデータに構築および配置された実際のスマートシステムへの匿名アクセスを制限する必要があります。生成されたコンテンツの履歴を保存し、合成されたコンテンツがどのように作成されるかを特定する必要があります。
ポリシー:欧州連合は、AIの助けを借りて作成されたコンテンツのマーキングに関する議論を開始しました。そうすれば、ユーザーは少なくともAIが生成した画像、音声、ビデオ、またはテキストを検出するための迅速かつ信頼できる方法を持つことができます。常に犯罪者がいるが、彼らは常に少数派であり、常に走って隠れ、罰に影を落とさなければならない。
教育:誰にとっても最も効果的なことは、人工コンテンツを検出する方法、検証する方法、および潜在的な虐待を報告する方法についての意識を高めることです。
学校は、AIの概念、自然知能との違い、そしてAIがどれほど信頼できるか、または損傷しているかを可能な限り教えなければなりません。
「AIが人類の文明を破壊する孤児院の中心になると予測する人もいます。大企業の何人かのレベルCの幹部は立ち上がって、災害を防ぐためにAIの減速を要求しました」とカムルクは言いました。
Kamlukはまた、他のほとんどの技術的ブレークスルーと同様に、生成AIの出現により、AIは両刃の剣であることを確認しました。
「このスマートマシンの安全な方向性を設定する方法を知っている限り、私たちは常にそれを利用することができます」と彼は結論付けました。