シェア:

ジャカルタ - 経営開発研究所(IMD)とトノムスは、人工知能(AI)の開発が憂慮すべき段階に入っていることを認識しています。その理由は、一部のAIは自律的に動作できるからです。

この技術は一般人工知能(AGI)と呼ばれています。IMDとTONOMUSによると、AIは独立して動作し、人間の監督を必要としないため、将来に害を及ぼす可能性があるため、適切なツールが必要です。

そのため、IMDとTONOMUSはAIの悪影響に対処するためにAI安全クロックを立ち上げました。このインジケータウォッチの形のソリューションは、AGIの開発からのリスクが高いを読み取ることができます。AI安全クロックは、AGIが制御不能になった場合に警告することができます。

このソリューションは、AIセキュリティ分野の一般市民、政策立案者、ビジネスリーダーにとって建設的な意識と議論を高めるように設計されています。IMDとTONOMUSによると、AIセーフティクロックはAI安全慣行をサポートできます。

IMDのデジタルビジネス変革のためのグローバルセンターのディレクターであるマイケルウェイドは、AGIには4つの制御不能なリスク段階、すなわち低、中、高、重大なリスクがあると述べました。AIの現在の状況を読むと、世界は高リスク段階に入っています。

「私たちの現在のAGIの開発は、中程度のリスク段階から高リスク段階に移行しています。AGIの開発が重要で制御不能になると、それは人類にとって災害になるでしょう。リスクは深刻ですが、行動するには遅すぎることはありません」とウェイドはVOIが受け取った声明で説明しました。

この状況に沿って、ウェイドはAI、特にAGIの規制が緊急に必要であると説明しました。適切な規制を行うことで、AGIからの悪いリスクを防ぎ、人間に対する技術的脅威も克服することができます。

「効果的で統合された規制は、利益を損なうことなく、この技術の開発の最悪のリスクを制限することができます。そのために、私たちは国際的なプレーヤーとテクノロジーの巨人に予防策を講じるよう求めます」とウェイドは言いました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)