Partager:

JAKARTA - Le dernier robot artisanal automatique utilisé par ChatGPT OpenAI ressemble à Sk nt du film de science-fiction Terminator. Bien que ce nouveau robot n’ait pas un tueur, la figure 01 peut effectuer des tâches autonomes de base et mener des conversations en temps réel avec les humains - à l’aide de chatGPT.

La société Figure AI, a partagé une vidéo de protestation, montrant comment chatGPT a aidé le paquet à reconnaître des objets visuels, à planifier des actions futures et même à réfléchir à sa mémoire.

La caméra Figure 01 capture son environnement et l’envoie dans un grand modèle de langues formé par OpenAI, qui a ensuite traduit l’image vers le robot.

La vidéo montre à un homme demandant à un apocalypse de jeter des vêtements sales, de se laver la vaisselle et de lui donner quelque chose à manger - et le robot accomplit ces tâches - mais contrairement à chatGPT, la figure 01 a plus hésité à répondre aux questions.

With OpenAI, Figure 01 can now have full conversations with people-OpenAI models provide high-level visual and language intelligence-Figure neural networks deliver fast, low-level, dexterous robot actionsEverything in this video is a neural network: pic.twitter.com/OJzMjCv443

— Figure (@Figure_robot) March 13, 2024

Avec OpenAI, la Figure 01 peut désormais avoir des conversations complètes avec les personnes - les groupes OpenAI fournissent des améliorations visuelles et linguistiques. Les réseaux neuronaux de Figure fournissent des actions robotes rapides, basse niveau, altruistes Tout dans cette vidéo est un réseau neuronal: pic.twitter.com/OJzMjCv443

Lorsqu'on lui demande de la nourriture par les humains, le robot peut reconnaître les pommes comme le seul objet à manger sur une table.

Figure AI espère que son premier robot emboîté d’IA sera prouvé être capable de faire des emplois trop dangereux pour les travailleurs humains et peut réduire le pénurie d’emploi.

« Il y a deux semaines, nous avons annoncé que le joint de Figure + OpenAI était pour renforcer les limites de l’apprentissage du robot », a écrit Brett Adcock, fondateur de Figure, sur X. « Ensemble, nous développons le modèle d’IA de prochaine génération pour notre robot artisanal. »

Adcock a également noté que le robot n’était pas maîtrisé à distance et « il a été filmé à une vitesse de 1,0x et enregistré en permanence ».

Les commentaires à ce sujet sont peut-être une canular pour Elon Musk, qui a partagé une vidéo du robot optimus Tesla pour démontrer son savoir-faire - puis il a découvert qu’un humain l’exploite à distance.

Figure AI a collecté 675 millions de Doberai as en mai 2023 d’investisseurs tels que Jeff Bezos, Nvidia, Microsoft et, bien sûr, OpenAI.

« Nous espérons être l’un des premiers groupes à commercialiser l’umidid », a déclaré Brett Adcock aux journalistes en mai. « Bien sûr, cela peut vraiment être utile et mener des activités commerciales. »

La nouvelle vidéo montre Figure invité à effectuer certaines tâches par un homme - dont il demande au robot de lui donner quelque chose de manger sur la table.

« J’ai vu des pommes rouges sur une assiette au milieu de la table, des étals de sècher avec des tasses et des assiettes, et vous êtes debout près d’elle avec les mains sur la table », a déclaré Figure.

Adcock a déclaré que la vidéo montrait une interprétation du robot utilisant son réseau nerveux en finalité, qui est un terme utilisant l’apprentissage des langues pour entraîner des modèles.

Le chatGPT est formé sur de grands ensemble de données pour interagir avec les utilisateurs humains en chat.

Le chat bt est capable de suivre les instructions dans les commandes et de fournir des réponses détaillées, similaires à la façon dont fonctionnent le modèle d’apprentissage des langues dans Figure. Le robot « écoute » les ordres et répond avec l’aide de son AI.

Cependant, une étude récente a placé chatGPT à travers le scénario de jeu de guerre, le révélant qu’il choisit d’attaquer un adversaire à près de 100% - similaire au Sk 42 Terminator. Mais pour l’instant, la figure 01 est en train d’aider les humains.

La vidéo comprend une autre manifestation avec l’homme qui demande au robot ce qu’il a vu à la table devant lui.

Il répondit : "J'ai vu des pommes rouges sur une assiette au milieu de la table, des étals de sècher avec des tasses et des assiettes, et vous êtes debout près d'elle avec les mains sur la table."

Le robot utilise des caméras sur table qui se connectent à de grands modèles de langues pour reconnaître l’environnement environnant.


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)