Meta Platforms Inc. divulgue des détails sur les puces d’intelligence fabriquées par la nouvelle génération

JAKARTA - Meta Platform Inc. a annoncé les détails de la prochaine génération d’accélérateurs d’intelligence artificielle développés internellement par l’entreprise. Cette nouvelle puce, appelée « Artemis » internellement, devrait aider Meta à réduire sa dépendance aux puces d’intelligence artificielles de Nvidia et à réduire les coûts énergétiques globaux.

« Cette architecture de puces est essentiellement axée sur la fourniture d’un équilibre approprié entre le calcul, la bande passante de mémoire et la capacité de mémoire pour servir les modèles de classement et recommandations », a écrit Meta dans un billet de blog.

Le nouvel accélérateur de la formation et de l’inférence des puces (MTIA) fait partie d’efforts spéciaux dans le développement de silicones à base de l’entreprise, ce qui comprend également l’examen d’autres systèmes matériels.

En plus de construire des puces et du matériel, Meta a également investi de manière significative dans le développement de logiciels nécessaires pour exploiter le pouvoir de leur infrastructure de la manière la plus efficace.

Meta a également dépensé des milliards de dollars pour acheter des puces Nvidia et d’autres puces d’intelligence artificielle. Le PDG de Meta, Mark Zuckerberg, a déclaré que son entreprise prévoit d’acheter environ 350 000 puces H100 de Nvidia cette année. Avec d’autres fournisseurs, Meta prévoit d’accumuler équivalent à 600 000 puces H100 cette année.

Taïwan Semiconductor manufacturing Co produira également de nouvelles puces utilisant un processus de « 5nm ». Meta dit que les puces sont capables de fournir trois fois les performances de leurs processeurs de première génération.

Les puces ont été mises en œuvre dans les centres de données et sont impliquées dans le service des applications d’intelligence artificielle. La société a déclaré qu’elle dispose de plusieurs programmes en cours visant à élargir la couverture MTIA, y compris un soutien pour le fardeau de travail génératif de l’intelligence artificielle.