JAKARTA - Micron Technology a commencé la production massive de semi-conducteurs de mémoire à grande vitesse à utiliser dans les dernières puces de Nvidia pour l’intelligence artificielle. Cela a fait augmenter ses actions de plus de 4% avant le lundi 26 février.
Selon Micron, le HBM3E (mémorie à bande passante 3E) consommera 30% moins de puissance par rapport à l’offre concurrente et pourrait aider à tirer parti de la demande croissante de puces qui alimentent les applications génératrices d’IA.
Nvidia utilisera les puces dans la prochaine génération d’unités de traitement graphique H200, qui devraient commencer à être mises en service au deuxième trimestre et remplacera les puces H100 actuelles, ce qui a entraîné une flambée massive des revenus des concepteurs de puces.
La demande de puces de mémoire à grande vitesse (HBM), un marché dirigé par un fournisseur Nvidia SK Hynix, pour une utilisation dans l’IA, a également suscité les investisseurs d’espoir que Micron pourra survivre à une reprise lente sur d’autres marchés.
HBM est l’un des produits les plus rentables pour Micron, en partie en raison de la complexité technique impliquée dans sa construction.
La société avait précédemment déclaré qu’elle s’attendait à « plusieurs centaines de millions » de dollars de revenus HBM au cours de l’exercice budgétaire 2024 et à une croissance durable d’ici 2025.
Le HBM3E est censé consommer 30% moins d’énergie que ses concurrents offrent. Cela signifie que l’utilisation du HBM3E peut produire une économie énergétique plus élevée, ce qui est important pour les applications qui nécessitent des performances élevées telles que l’intelligence artificielle générative (IA).
Malgré moins d’énergie consommant, HBM3E offre une performance élevée dans la transmission de données avec une grande bande passante. Cela permet aux puces qui utilisent HBM3E de travailler de manière efficace pour gérer des charges de travail intensives par le biais de manière computaire, telles que la représentation graphique complexes dans les applications d’IA.
HBM3E est la dernière technologie de mémoire à haute vitesse, avec les dernières fonctionnalités et des améliorations de performance par rapport aux versions précédentes. Cela en rend une option intéressante pour les entreprises comme Nvidia pour être utilisées dans leurs derniers produits nécessitant une performance élevée et une bonne efficacité énergétique.
The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)