Ilya Sutskeverがセーフスーパーインテリジェンスを立ち上げ:AIセキュリティの課題に直面

ジャカルタ–OpenAIの共同創設者兼元チーフサイエンティストであるIlya Sutskeverは、セーフスーパーインテリジェンス(SSI)と呼ばれる新しい会社を立ち上げました。同社は、人間の能力をはるかに超える人工知能(AI)システムの開発を目指していますが、セキュリティと倫理に主眼を置いています。

Sutskever(37歳)は、AI世界で最も影響力のある人物の1人として知られています。彼は「AIの父」と呼ばれるジェフリー・ヒントンの指導の下で学び、「スケーリング」という概念の最初の支持者であり、AIパフォーマンスが大きなコンピューティングパワーで向上するという考えでした。この概念は、ChatGPTのような生成AIの進歩の基礎となっています。しかし、Sutskeverは、SSIはスケーリングの面でOpenAIとは異なるアプローチを取ると述べています。

ロイターとの独占インタビューで、SutskeverはSSIを設立する動機を説明しました。彼は、同社が以前の仕事とは異なる「山」であるAI開発の新しい領域を探求したいと主張した。Sutskeverによると、この山の頂上に到達することはAIの世界に革命を起こし、その時までにスーパーインテリジェンスのセキュリティが最も重要な課題になるでしょう。

「当社の最初の製品は安全なスーパーインテリジェンスになります」とSutskever氏は述べ、AIが人類に利益をもたらすことを保証することの重要性を強調しました。

スーパーインテリジェンスに到達する前に、SSIが人間の知性と同等のAIシステムをリリースするかどうか尋ねられたとき、Sutskeverは慎重に答えました。彼は、主な質問はAIが安全であり、世界に良いものを提供するかどうかであると主張しています。彼は、AIシステムが進化するにつれて世界がどのように変化するかを予測することは困難であり、最終的な決定はSSIの手に委ねられているわけではないかもしれないと認めています。

「世界は非常に異なる場所になるだろう」とSutskever氏は言う。彼は、AIに関する会話は技術が進歩するにつれてより激しくなることを示唆した。

安全なAIの定義について尋ねられたとき、Sutskeverは明確な答えがなかったことを認めました。彼は、AI機能が進化するにつれて、適切なセキュリティ対策を決定するための重要な研究と実験の必要性を強調しました。

「まだやるべきことはたくさんあります」と彼は言い、SSIの使命はこれらの重要な質問に対する答えを見つけることであると強調しました。

Sutskeverはまた、過去10年間にAIの多くの進歩を牽引してきたスケーリングの概念についても議論しています。彼は、スケーリングに関する現在の理解は特定の式に基づいているが、これはAI技術の進化とともに変化する可能性があると指摘した。これらの変化が起こるにつれて、セキュリティの問題はますます重要になります。

SSIのオープンソース研究の可能性について、Sutskever氏は、ほとんどのAI企業と同様に、SSIは研究の主要な結果を公然と共有しないと説明した。しかし、彼は、さまざまな要因に応じて、スーパーインテリジェンスセキュリティ研究の特定の側面が一般に公開されることを望んでいます。

セキュリティに重点を置いた会社を設立したにもかかわらず、Sutskeverは他のAI企業の努力について積極的に話しました。彼は、業界が進歩するにつれて、すべての当事者が安全なAIを開発する上での課題を認識し、人類にAIの利益を確保するというより大きな使命に貢献すると確信しています。

Sutskeverの新しい動きは、AIセキュリティの進化する環境における重要なマイルストーンを示しており、SSIは安全なスーパーインテリジェンスシステムの開発における主要なプレーヤーとしての地位を確立しています。AIによる世界の変革とともに、この会社の研究とイノベーションは将来に大きな影響を与える可能性があります。