OpenAIのAI安全チームは、一連の自己辞任の後に解散

ジャカルタ-AIの実存的危険に焦点を当てたOpenAIチーム全体が辞任したか、社内の他の研究グループに参加したと伝えられています。

OpenAIのチーフサイエンティストであり、同社の共同創設者であるIlya Sutskeverが、OpenAIスーパーアライメントチームの共同リーダーでもあるDeepMindの元研究者であるJak Leikeが、プラットフォームXでの辞任を発表した数日後。

Leike氏によると、同社を去ったのはOpenAIの優先事項に対する懸念によるもので、AIの安全性よりも製品開発に重点を置いているという。

Leike氏はXの一連の投稿で、OpenAIのリーダーシップは最優先事項を選択する際に間違っており、人工一般知能(AGI)の開発に伴い、安全性と準備を強調する必要があると述べた。

AGIは、さまざまな分野で人間と同じ、またはより良いタスクを実行できる架空の人工知能の用語です。

OpenAIで3年間過ごした後、Leike氏は、強力なAI安全文化と適切なプロセスを構築するのではなく、注目を集める製品開発を優先していると同社を批判した。彼は、無視された重要な安全研究をサポートするために、リソース、特にコンピューティングパワーの緊急の割り当ての必要性を強調しました。

「私は、最終的に最高点に達するまで、長い間、同社のコア優先事項に関するOpenAIのリーダーシップに同意しません。ここ数ヶ月、私のチームは風に逆らって航海してきました」とレイケは言いました。

OpenAIは、2023年7月に新しい研究チームを結成し、クリエイターよりもインテリジェントで強力な高度なAIの出現に備えました。Sutskeverは、OpenAIのコンピューティングリソースの20%を占める新しいチームの共同リーダーに任命されました。

最近の辞任を受けて、OpenAIは「Superalignment」チームを解散し、その機能を組織内の他の研究プロジェクトに統合することを選択しました。この決定は、2023年11月のガバナンス危機に対応して始まった進行中の内部再編の結果であると伝えられています。

Sutskeverは、OpenAIの取締役会がサム・アルトマンを2023年11月にCEOを辞任し、従業員からの反発を受けてその役割に再雇われることを成功裏に促した取り組みの一環です。

The Informationによると、Sutskeverは従業員に、アルトマンを解任するという取締役会の決定は、OpenAIが全人類に利益をもたらすAGIを開発することを保証する責任を果たしていることを知らせました。6人の取締役の1人として、SutskeverはOpenAIの目標をより大きな利益と整合させるという取締役会のコミットメントを強調しました。