JAKARTA - Le PDG d'Nvidia, Jensen Huang, a déclaré que la dernière génération de puces Nvidia était désormais en pleine production. Ces puces sont censées offrir des performances d'intelligence artificielle (IA) jusqu'à cinq fois plus élevées que la génération précédente, en particulier pour exécuter des chatbots et diverses applications IA.
Cette déclaration a été faite par Huang dans son discours au Consumer Electronics Show (CES) à Las Vegas. Il a révélé que les derniers puces Nvidia étaient prévus pour être lancés fin de l'année et étaient actuellement dans les laboratoires Nvidia pour être testés par un certain nombre d'entreprises d'IA. Cette mesure a été prise dans le contexte de la montée en puissance de la concurrence d'Nvidia avec des rivaux traditionnels et des clients importants qui commencent à développer leurs propres puces IA.
La nouvelle plate-forme de puces Nvidia s’appelle Vera Rubin. Cette plate-forme se compose de six puces distinctes, avec un serveur phare qui transporte 72 unités de processeur graphique (GPU) et 36 processeurs centraux (CPU) de nouvelle génération. Huang a expliqué que le système peut être assemblé en une unité ou « pod » contenant plus de 1 000 puces Rubin, capable d’améliorer l’efficacité de la création de « jetons » IA jusqu’à 10 fois.
Pour atteindre ce saut de performance, Nvidia utilise un type de données propriétaire qui devrait être plus largement adopté par l'industrie. Huang a qualifié cette amélioration de performance de « très significative » même si le nombre de transistors n'a augmenté que d'environ 1,6 fois par rapport à la génération précédente.
Bien que Nvidia domine encore le marché de la formation des modèles d'IA, la concurrence est de plus en plus vive au stade de la présentation des services d'IA à des centaines de millions d'utilisateurs. Les concurrents viennent d'entreprises telles que AMD, ainsi que de grands clients tels que Google qui développent également des puces IA internes. En réponse à ce défi, Nvidia a introduit une nouvelle technologie appelée stockage de mémoire de contexte, conçue pour aider les chatbots à fournir des réponses plus rapides dans des conversations longues et complexes.
En plus des puces de calcul, Nvidia a également présenté la dernière génération de commutateurs réseau avec une technologie d'optique co-emballée. Cette technologie est importante pour connecter des milliers de machines dans un système intégré et concurrencera directement les solutions de Broadcom et Cisco.
Nvidia a déclaré que CoreWeave serait l'une des premières entreprises à utiliser le système Vera Rubin. En outre, Microsoft, Oracle, Amazon et Alphabet devraient également adopter cette technologie.
Dans une autre annonce, Huang a mis en lumière un nouveau logiciel pour les véhicules autonomes qui aide les systèmes à prendre des décisions de route tout en fournissant des traces de données aux ingénieurs. Le logiciel, appelé Alpamayo, sera plus largement disponible, avec des données de formation open source afin que les constructeurs automobiles puissent évaluer et faire confiance aux résultats.
Huang a également réagi à l'acquisition de talents et de technologies de puces de la startup Groq le mois dernier. Selon lui, cette mesure n'affectera pas les activités de base d'Nvidia, mais pourrait potentiellement donner naissance à de nouveaux produits à l'avenir.
Nvidia, en revanche, veut montrer que ses nouveaux processeurs sont capables de surpasser les performances des anciens processeurs tels que le H200, qui sont toujours en demande sur le marché chinois. Huang a reconnu que la demande de H200 en Chine restait forte. Colette Kress, la directrice financière d'Nvidia, a ajouté que l'entreprise avait demandé l'autorisation d'expédier les processeurs et attendait toujours l'approbation des États-Unis et d'autres pays concernés.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)