11月13日星期一,Nvidia向其人工智能的最佳芯片添加了一项新功能。他们表示,新产品将于明年与 Amazon.com,Alphabet的谷歌和甲骨文一起推出。

名为 H200 的芯片将取代当前顶级芯片 H100,主要改进是更大的高带宽记忆,这是确定数据处理速度最快的芯片最昂贵的部分之一。

Nvidia在人工智能芯片市场上占主导地位,并成为OpenAI的ChatGPT服务的驱动力,以及许多类似的人工生成人工智能服务,通过类似的人类写作回答问题。添加更高的带宽记忆和更快的连接到芯片处理元素。这意味着此类服务可以提供更快的答案。

H200的带宽记忆力高达141千兆比,高于之前的H100的80千兆比。Nvidia没有透露供应商对新芯片的记忆,但Micron Technology在9月表示,它正在努力成为Nvidia的供应商。

Nvidia还从韩国收购了SK Hynix的存储,韩国上个月表示,人工智能芯片有助于恢复销售。

Nvidia还宣布,亚马逊Web Services,Google Cloud,Microsoft Azure和甲骨文云基础设施将成为除CoreWeave,Lambda和Vultr等特殊人工智能云服务提供商外,几家首批提供H200芯片的云服务提供商。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)