Groq a créé une sensation sur les réseaux sociaux avec une température énorme de réponse

JAKARTA - GIZ, le dernier modèle d’intelligence artificielle qui est apparu à la surface, vole l’attention sur les médias sociaux avec sa rapidité de réponse et de nouvelles technologies qui pourraient éliminer le besoin de GPU.

Groq est devenu une sensation dans la soirée après que son test de comparative public soit devenu viral sur la plate-forme de médias sociaux X, révélant sa vitesse de comptage et sa réponse qui ont surpassé le populaire chat chat robot d’intelligence fabriqué par chatGPT.

Cela est dû à l’équipe derrière Groq qui a développé ses propres puces en circuit intégrées (ASIC) spécialisées dans les modèles de grande langue (LLM), permettant à Groq de générer environ 500 jetons par seconde. Par rapport à chatGPT-3.5, la version du modèle est disponible publiquement, qui ne peut générer que environ 40 jetons par seconde.

Groq Inc, le développeur de ce modèle, affirme avoir créé la première unité de traitement linguistique (LPU) dans laquelle il exécute son modèle, au lieu d’utiliser des unités de traitement graphique (GPU) qui sont généralement utilisées pour exécuter des modèles d’intelligence artificielle.

Cependant, la société derrière Groq n’est pas nouvelle. La société a été fondée en 2016 lorsque la marque de marque Groq a été enregistrée. En novembre dernier, lorsque le modèle d’intelligence artificielle d’Elon Musk, également appelé Grok - mais enfoncé avec « k » - a attiré l’attention, les développeurs derrière Groq initial ont publié un billet de blog mettant en évidence Musk sur le choix de nom.

« Nous pouvons comprendre pourquoi vous voulez prendre notre nom. Vous aimez les choses rapides (roquettes, hyper ibid, nom d’entreprise à une lettre) et nos produits, le Groq LPU Inference Engine, est le moyen le plus rapide de exécuter des modèles de grande langue (LLM) et d’autres applications d’intelligence génératives. Cependant, nous devons vous demander de choisir un autre nom, et rapidement », a déclaré le directeur général de Groq.

Depuis que Groq est devenu viral sur les médias sociaux, ni Musk, ni la page Grok sur X n’ont commenté la similitude des deux modèles.

Cependant, de nombreux utilisateurs de la plate-forme ont commencé à comparer les modèles LPU avec d’autres modèles basés sur les GPU.

Un utilisateur qui travaille dans le développement de l’intelligence artificielle a qualifié Groq de « changement majeur » pour les produits nécessitant un faible salaire, ce qui fait référence au temps nécessaire pour traiter la demande et obtenir des réponses.

Un autre utilisateur a écrit que LPU Groq pourrait offrir une « amélioration majeure » par rapport aux GPU pour répondre aux besoins futurs des applications d’intelligence artificielle, et a déclaré qu’il pourrait également être une bonne alternative au « matériel haute performance » des puces A100 et H100 en question produites par Nvidia.

Cela survient à un moment où les développeurs majeurs d’intelligence artificielle tentent de développer des puces en intérieur afin de ne pas reposer seulement sur les modèles Nvidia.

OpenAI rechercherait des milliards de dollars de financement auprès des gouvernements et des investisseurs du monde entier pour développer leurs propres puces pour résoudre les problèmes de développement de leurs produits.