Groqは、その信じられないほどの応答速度でソーシャルメディア上の検閲を作ります
Groq、表面化した最新の人工知能モデル(写真:x @G コモンズインク)

シェア:

ジャカルタ - 地表に登場した最新の人工知能モデルであるG ラットは、対応速度とGPUの必要性を排除する可能性のある新技術でソーシャルメディアで注目を集めています。

Groqは、彼の公開ベンチマークテストがソーシャルメディアプラットフォームXでバイラルになった後、一晩でセンセーションを巻き起こし、コンピューティングスピードとその対応が人気のChatGPT人工知能チャットボットを上回ったことを明らかにしました。

これは、Grokの背後にいるチームが大規模な言語モデル(LLM)用の独自のアプリケーションに固有の統合回路チップ(ASIC)を開発し、Grokが毎秒約500トークンを生成できるようにしたためです。ChatGPT-3.5と比較して、一般に公開されているモデルのバージョンで、毎秒約40トークンしか生成できません。

このモデルの開発者であるGrok Incは、人工知能モデルを実行するために通常使用されるグラフィックス処理ユニット(GPU)を使用するのではなく、モデルを実行する最初の言語処理ユニット(LPU)を作成したと主張しています。

しかし、Grokの背後にある会社は新しいものではありません。同社は、Grokの商標が登録された2016年に設立されました。昨年11月、イーロンマスクの人工知能モデルがGrokとも呼ばれましたが、「k」に囲まれていたとき、Grokの背後にいる開発者は、その名前の選択についてマスクを強調するブログ投稿を元々公開しました。

「なぜあなたが私たちの名前を取りたいのか理解できます。あなたは速いもの(ロケット、ハイパーループ、一文字の会社名)が好きで、私たちの製品であるGrok LPU参照エンジンは、ビッグ言語モデル(LLM)やその他の生成人工知能アプリを実行する最速の方法です。ただし、別の名前を選択するように依頼する必要があり、迅速に選択する必要があります」とGrokの幹部は述べています。

Groqがソーシャルメディアでバイラルになって以来、マスク氏もX上のGrok氏のページも、2つのモデルの名前の類似性についてコメントしていない。

それにもかかわらず、プラットフォーム上の多くのユーザーは、LPUモデルを他のGPUベースのモデルと比較し始めています。

人工知能の開発に取り組んでいるユーザーは、Grokを低レタンを必要とする製品の「大きな変化」と呼び、需要を処理して応答を得るのにかかる時間を指します。

別のユーザーは、GrokのLPUは、人工知能アプリの将来のニーズを満たす上でGPUと比較して「大幅な改善」を提供する可能性があると書き、Nvidiaが製造する検索中のA100およびH100チップの「高性能ハードウェア」に代わる良い選択肢でもある可能性があると述べた。

これは、大手人工知能開発者がNvidiaモデルだけに頼らないように社内チップの開発に取り組んでいる時に起こります。

OpenAIは、自社チップを開発して製品開発の問題に対処するために、世界中の政府や投資家からの数兆ドルの資金を求めていると伝えられている。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)