ジャカルタ-ChatGPT OpenAIを搭載した最新の自動ヒューマノイドロボットは、SF映画「ターミネーター」のスキッドに似ています。新しいロボットはキラーマシンではありませんが、Figure 01は基本的な自律的なタスクを実行し、ChatGPTの助けを借りて人間とリアルタイムの会話をすることができます。
フィギュアAIの会社は、ChatGPTが二本足のマシンが視覚的なオブジェクトを認識し、将来の行動を計画し、さらにはその記憶を反映するのにどのように役立つかを示すデモンストレーションビデオを共有しました。
フィギュア01のカメラは周囲の環境をキャプチャし、OpenAIが訓練した大規模な言語モデルに送信し、画像をロボットに変換します。
クリップには、ヒューマノイドに汚れた服を投げたり、皿を洗ったり、食べるものを与えたりするように頼む男性が映っており、ロボットはそれらのタスクを実行しますが、ChatGPTとは異なり、フィギュア01は質問に答えることを躊躇します。
With OpenAI, Figure 01 can now have full conversations with people-OpenAI models provide high-level visual and language intelligence-Figure neural networks deliver fast, low-level, dexterous robot actionsEverything in this video is a neural network: pic.twitter.com/OJzMjCv443
— Figure (@Figure_robot) March 13, 2024
OpenAIを使用すると、フィギュア01は、人-OpenAIモデルが高速な視覚および言語インテリジェンスを提供するフルな変容を可能にし、高速で低レベルのデクスターレスロボットアクションを提供しますこのビデオのすべてがニューラルネットワークです:pic.twitter.com/OJzMjCv443
人間から食べ物を尋ねられたとき、ロボットはリンゴをテーブルで食べることができる唯一の物体として認識することができます
フィギュアAIは、最初のヒューマノイドAIロボットが、人間の労働者にとって危険すぎる仕事をすることができ、労働力不足を減らすことができることが証明されることを望んでいます。
「2週間前、私たちはFigure + OpenAIがロボット学習の制限を推進するために力を合わせたことを発表しました」とFigureの創設者Bret AdcockはXに書いています。「私たちは共に、ヒューマノイドロボット用の次世代AIモデルを開発しています。
アドコックはまた、ロボットは遠隔操作ができておらず、「これは1.0xの速度で撮影され、継続的に記録されている」と指摘した。
それについてのコメントは制御不能であり、彼の専門知識を披露するためにテスラのオプティマスロボットのビデオを共有したイーロンマスクに対する風刺であった可能性があります - 後に人間がそれをリモートで操作したことが判明しました。
フィギュアAIは、2023年5月にジェフベゾス、エヌビディア、マイクロソフト、そしてもちOpenAIなどの投資家から6億7500万ドルを調達しました。
「ヒューマノイドを販売する最初のグループの1つになることを願っています」とブレット・アドコックは昨年5月に記者団に語った。「もちろん、それは本当に有用で商業活動を行うことができます。
新しいビデオは、フィギュアが男性からいくつかのタスクを実行するように頼まれていることを示しています - そのうちの1つは、ロボットがテーブルで食べることができるものを彼に与えるように頼むことです。
「テーブルの中央にある皿に赤いリンゴ、カップと皿が入った乾燥棚を見て、あなたはテーブルに手を乗せて近くに立っていました」とフィグレは言いました。
Adcock氏によると、このビデオは、言語学習を使用してモデルを訓練する用語であるエンドツーエンドのニューラルネットワークを使用したロボットの推論を示しているという。
ChatGPTは、人間のユーザーと会話的に対話するために、大量のデータでトレーニングされています。
Chatbotは、コマンドの指示に従い、Figureの言語学習モデルがどのように機能するかと同様に、詳細な応答を提供することができます。ロボットはコマンドに「耳を傾ける」と、AIの助けを借りて応答します。
しかし、最近の研究では、ChatGPTは戦争ゲームシナリオを通じて、スカイラインターミネーターと同様に、対戦相手をほぼ100%攻撃することを選択していることがわかりました。しかし今のところ、フィギュア01は人間を助けています。
ビデオには、男性が目の前のテーブルで見たロボットを尋ねる別のデモンストレーションが含まれていました。
フィギュアは「テーブルの中央の皿に赤いリンゴ、カップと皿が入った乾燥棚を見て、テーブルの上に手で近くに立っていました」と答えました。
ロボットは、周囲の環境を認識するために、大規模な言語モデルに接続されたオンボードカメラを使用します。
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)