ジャカルタ - 7月26日水曜日、OpenAI、Microsoft、AlphabetのGoogle、Anthropicなどの大手テクノロジー企業は、安全で責任ある大規模機械学習(LLM)モデルの開発を支援するフォーラムの立ち上げを発表しました。
人工知能の分野の業界リーダーは、フォーラムは、現在の最先端モデルに存在する機能を超える、いわゆる「国境AIモデル」のセキュリティ研究とベストプラクティスの開示を調整することに焦点を当てると述べた。
これらのモデルは非常に有能な基本的なモデルであり、業界のリーダーが警告しているように、公共の安全に大きなリスクをもたらすほど深刻な有害な能力を持つ可能性があります。
ChatGPTなどのチャットボットで使用されるものと同様に、ジェネレーティブAIモデルは、多量のデータを高速で使用して、散文、詩、画像の形で応答します。
このようなモデルのユースケースは膨大ですが、欧州連合などの政府機関やOpenAIのCEOであるSam Altmanなどの業界リーダーは、AIがもたらすリスクに対処するために適切なセキュリティ対策が必要であると述べています。
「AI技術を開発する企業には、技術が安全で安全であり、人間の管理下にとどまることを保証する責任があります」と、Microsoftの社長であるBrad Smithは声明で述べています。
産業団体であるフロンティアモデルフォーラムも、政策立案者や学者と緊密に連携し、企業と政府の間の情報交換を促進します。
OpenAIの広報担当者が説明したように、この機関はロビー活動には関与しないが、国境AIモデルのパフォーマンス対策と技術評価に関する一般図書館の開発と共有に最初に焦点を当てる。
このフォーラムは、今後数ヶ月以内に諮問委員会を結成し、ワーキンググループを通じて資金を手配し、その努力を主導する執行役員を設立します。
「これは緊急の仕事であり、このフォーラムはAIセキュリティを進めるために迅速に行動する準備ができています」とOpenAIのグローバルアフェアーズ担当バイスプレジデントであるAnna Makanjuは述べています。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)