雅加达 - 微信技术公司,2月26日星期一,内存和存储解决方案的全球领导者,宣布已开始大规模生产HBM3E(高带宽内存3E)解决方案。Micron的HBM3E 24GB 8H将成为NVIDIA H200 Core Tensor GPU的一部分,该GPU将于2024年第二季度开始交付。

这一成就使Micron处于行业的最前沿,增强了人工智能(AI)解决方案,并在HBM3E行业中具有领先的能源性能和效率。

随着人工智能需求的不断增加,对能够跟随工作量扩大到关键的存储解决方案的需求。Micron的HBM3E解决方案通过:

Micron的HBM3E的 pin速度超过每秒9.2吉巴特(Gb/s),提供超过1.2TB/s的带宽内存,为AI加速器、超级计算机和数据中心提供快速数据访问。

Micron的HBM3E领先于电力消耗量~30%低于竞争对手产品的行业。为了支持人工智能需求和使用的增加,HBM3E提供的最大传输量,最低的功耗水平,以增加重要数据中心的运营成本指标。

目前的24 GB容量,Micron 的 HBM3E 允许数据中心在没有障碍的情况下构建其AI应用程序。无论是训练大神经网络还是加速摘要任务,Micron 的解决方案都提供了必要的内存带宽。

「通过HBM3E的这一成就,Micron提供了三角:市场领导,最佳行业绩效和不同的功率效率概况,”Micron Technology执行副总裁兼首席商务官Sumit Sadana说。

「人工智能的工作量在很大程度上取决于带宽和内存容量,Micron在未来通过领先的HBM3E和我们的HBM4路线图以及我们为AI应用程序提供的完整的DRAM和NAND解决方案组合,支持AI的重要增长方面非常有能力。

微软使用其1比特技术、高级通过硅 (TSV) 以及其他允许不同包装解决方案的创新,开发了这一领先的 HBM3E 设计。微软是2.5D/3D堆积和先进包装技术记忆中最著名的领导者,自豪地成为台积电3DFabric Alliance的合作伙伴,并帮助塑造半导体和系统创新的未来。

Micron还将于2024年3月通过36GB 12-High HBM3E样本扩大其领先地位,该样本计划提供超过1.2 TB / s的性能和高于竞争对手解决方案的能源效率。

Micron是NVIDIA GTC的赞助商,NVIDIA GTC是3月18日开始的全球AI大会,在那里,该公司将分享有关其行业领先的人工智能存储组合及其路线图的更多信息。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)