シェア:

ジャカルタ-ChatGPTの作成者であるOpenAIの元セキュリティ研究者であるレオポルドアッチェンブレナーは、人工知能研究所が2023年の3か月と比較して、2027年に1分でGPT-4モデルをトレーニングできると信じています。

ChatGPTのクリエイターであるOpenAIの元セキュリティ研究者であるLeopold Aschenbrennerは、人工知能(AI)に関する最新シリーズで、人工知能(AGI)に対する信頼を倍増させました。

「状況意識」と名付けられたこのシリーズは、AIシステムの状態と今後10年間の有望な可能性の概要を提供します。エッセイシリーズ全体が、6月4日に更新された165ページのPDFファイルに収集されました。

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

— Leopold Aschenbrenner (@leopoldasch) June 4, 2024

Full series as PDF: https://t.co/sVfNoriSoWRead online: https://t.co/YrKqmElMG0

この研究者は、さまざまな認知タスクで人間の能力と同等またはそれを超えるAIの種類であるAKIに特別な注意を払っています。AKIは、ナロー人工知能、またはANI、スーパー人工知能、または母乳を含む、多くの人工知能の種類の1つです。

「2027年のAGIは非常に可能です」とアシェンブレナーは言い、AGIマシンは2025年または2026年に大学卒業生を凌駕すると予測しています。

「10年の終わりまでに、彼ら(AKIエンジン)はあなたや私よりもインテリジェントになるでしょう。私たちは、実際の意味で、超知性を持つことになります。このプロセスの間、半世紀ぶりの国家安全保障戦力は解き放たれるだろう」とアシェンブレナーは述べた。

Aschenbrenner氏によると、AIシステムはプロのコンピュータ科学者に匹敵する知的能力を持つ可能性を秘めています。彼はまた、AIラボが多目的言語モデルをほんの数分で訓練できるという別の大胆な予測を行いました。

「概要を説明するには、GPT-4のトレーニングに3ヶ月かかったとしましょう。2027年には、大手AI研究所が1分でGPT-4レベルのモデルをトレーニングできるようになります」とAschenbrenner氏は説明します。

AGIの成功を予測するアシェンブレナーは、コミュニティにAGIの現実に直面するよう呼びかけています。この研究者によると、AI業界の「賢い人々」は、国家安全保障と米国のAI開発に関連する3つの基本原則に基づいて、彼が「agiリアリズム」と呼んだ視点に収束しています。

AGIアシェンブレナーシリーズは、OpenAIからの情報の「漏洩」の疑いで解雇されたと伝えられている直後に行われます。アシェンブレナーはまた、2023年にOpenAIのCEOであるサムアルトマンを倒すことに失敗した試みに参加したと伝えられているOpenAIのチーフサイエンティスト、イリヤスティスケバーの同盟者であると報告されています。アシェンブレナーの最新シリーズもサットスケバーに捧げられています。

アシェンブレナーは最近、StripeのCEOであるPatrick Collisonのような人物からの主要な投資を行い、AMIに焦点を当てた投資会社を設立しました。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)