Amazon、OpenAIとAlphabetのAIモデルのトレーニングに巨額の資金を投資

ジャカルタ - Amazonは野心的な大規模言語モデル(LLM)トレーニングに数百万ドルを投じています。 彼らは、OpenAI や Alphabet のトップ AI モデルに匹敵することを望んでいます。

コード名「オリンパス」で知られるこのモデルには2兆個のパラメータがあると情報筋2人が語った。 この AI モデルは、現在掘削されている最大のモデルの 1 つになる可能性があります。 OpenAI の GPT-4 モデルは、利用可能な最高のモデルの 1 つであり、伝えられるところによると 1 兆個のパラメータがあります。

プロジェクトの詳細は公表されていないため、関係者らは匿名を条件に語った。 一方、アマゾンはコメントを拒否した。 このプロジェクトの名前は11月7日(火)に情報が報じた。

このチームは、Alexa の元責任者である Rohit Prasad が率いており、現在は CEO の Andy Jassy に直属しています。 Amazon の主任人工知能 (AGI) 科学者として、プラサド氏は、これまで Alexa 人工知能に取り組んでいた研究者と Amazon の科学チームをモデルのトレーニングに取り組むよう招聘し、社内全体の人工知能への取り組みと既存のリソースを統合しました。

Amazon はすでに Titan のような小型モデルのトレーニングを行っています。 同社はまた、アマゾン ウェブ サービス (AWS) ユーザーにこうしたサービスを提供する Anthropic や AI21 Labs などの人工知能スタートアップ モデルとも協力しています。

Amazon は、企業顧客が最高のパフォーマンスを発揮するモデルへのアクセスを望んでいる AWS 上で、自社開発のモデルを保有することで、そのサービスをより魅力的なものにできると考えています。 この情報筋はまた、この新モデルのリリースに具体的なスケジュールはないと付け加えた。

LLM は、大規模なデータセットから学習して人間のような応答を生成する人工知能ツールの基盤となるテクノロジーです。

もちろん、必要なコンピューティング能力の量を考慮すると、大規模な人工知能モデルのトレーニングはより高価になります。 アマゾン幹部らは4月の決算会見で、小売事業におけるフルフィルメントや輸送への支出を削減する一方で、LLMや生成人工知能への投資を増やすと述べた。