シェア:

ジャカルタ - ChatGPTを設立したOpenAIは、重要なリソースを投資し、彼らが開発する人工知能(AI)が人間にとって安全であり続け、最終的にはAIを使用して自分自身を監視することを保証する新しい研究チームを結成する予定です。彼らは7月5日水曜日にこれを伝えました。

「巨大な超知能の力は...人為的ミスや人間の絶滅さえも引き起こす可能性がある」と、OpenAIの共同創設者であるIlya Sutskeverと編成責任者のJak Leikeはブログ記事に書いている。「現在、潜在的な超知能AIを指示または制御し、それらが破壊的に行動するのを防ぐための解決策はまだありません。

スーパーインテリジェンスAI(人間よりもスマートなシステム)は、この10年で登場する可能性があると、ブログ記事の著者は予測している。著者によると、人間はそのようなスーパーインテリジェンスAIを制御するために今日よりも優れた技術を必要とするため、AIが人間にとって有益であり続けることを保証することに焦点を当てた「調整」研究のブレークスルーが必要です。

マイクロソフトが支援するOpenAIは、この問題を解決するために今後4年間で確保したコンピューティングパワーの20%を割り当てると彼らは書いた。さらに、同社はこの取り組みに焦点を当てる新しいチームを結成する予定で、これはスーパーラインメントチームと呼ばれます。

このチームの目標は、人間レベルのアライメントAI研究者を作成し、大規模なコンピューティングパワーの使用を通じてそれらを増幅することです。OpenAIは、人間のフィードバックでAIシステムを訓練し、人間の評価を支援するAIシステムを訓練し、最終的にAIシステムを訓練して実際に調整研究を行うことを意味します。

AIセキュリティの擁護者であるコナー・リーヒ氏は、初期の人間レベルのAIが制御不能に実行され、AIセキュリティの問題を解決することを余儀なくされる前に混乱を引き起こす可能性があるため、この計画には根本的な欠陥があると述べた。

「人間レベルの知性を構築する前に、調整を破らなければなりません。デフォルトでそうでなければ、それを制御することはできません」と彼はインタビューで言いました。「個人的には、これは良い計画でも安全な計画でもないと思います。」

AIの潜在的な危険は、AI研究者と一般市民にとって大きな懸念事項です。4月、AI業界のリーダーと専門家のグループは、OpenAIのGPT-4よりも強力なシステムの開発に6ヶ月の遅れを要求する公開書簡に署名し、社会への潜在的なリスクを挙げました。5月、ロイター/イプソスの世論調査では、アメリカ人の3分の2以上が文明への悪影響の可能性を懸念しており、61%がAIが文明を脅かす可能性があると考えていた。

AIの潜在的な危険は、AI研究者と一般市民の両方にとって大きな懸念事項となっています。しかし、OpenAIは、AIが人間にとって安全で有益なままであることを保証するために、リソースと努力を注ぐことにコミットしています。

それにもかかわらず、一部のオブザーバーはOpenAI計画に懐疑的です。彼らは、適切な調整問題を解決せずに人間レベルのAIを開発すると、深刻なリスクをもたらす可能性があることを懸念しています。

OpenAIは効果的なAI監視メカニズムを構築しようとしていますが、完全に制御されていない人間レベルのAIが人間と社会に予期せぬ危険な結果をもたらす可能性があるという懸念があります。

AIセキュリティの確保にはまだ議論と課題がありますが、OpenAIがアライメント研究に投資し、スーパーアライメントチームを開発する動きは、AIの安全性を維持し、AIが人間にとって有益な範囲内で動作することを保証することに真剣さを示しています。

AIとそのセキュリティの開発を取り巻く紛争と議論は継続され、人工知能が全人類にとって安全で責任ある有益な方法で開発されることを確実にするという究極の目標を掲げています。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)