雅加达 - 据报道,亚马逊正在开发两个特殊的芯片,以练习大语言模型(LLM)和加速生成人工智能(AI)的采用。

被称为Inferentia和Trainium的芯片为亚马逊网络服务(AWS)客户提供了一种替代品来培训他们的LLM。据称,这两个特殊的芯片将与Nvidia制造的超级芯片Grace Hopper竞争。

“全世界都希望更多的芯片来执行生成AI,无论是GPU还是我们设计的亚马逊芯片本身,”AWS首席执行官亚当·塞利普斯基(Adam Selipsky)在接受CNBC国际采访时表示,周一8月14日。

“我认为我们比地球上任何人都处于更好的状态,以集体方式提供客户想要的容量,”他补充说。

Trainium于2021年首次出现在市场上,此前Inferentia于2019年发布,现在是其第二代。

「机器学习分为两个不同的阶段。因此,您可以练习机器学习模型,然后您可以对经过训练的模型进行判断,“AWS产品副总裁Matt Wood解释了这两个芯片的有用性。

“Trainium在价格性能方面提供了约50%的提高,而AWS中其他机械学习模型培训方法相比,”他继续说道。

伍德说,客户可以使用Inferentia提供非常便宜的机器学习概述,高传输和低延迟。

「当您输入命令进入生成AI模型时,这就是所有这些预测都被处理到给你答复的地方」伍德解释说。

然而,目前尚不清楚这两个亚马逊AI特定的芯片何时开始在全球市场上推出。如前所述,Nvidia Grace Hopper刚刚宣布并于2024年推出。

这个芯片是CPU加速的突破,旨在克服世界上最复杂的问题,如LLM,推荐系统和否定器数据库。


The English, Chinese, Japanese, Arabic, and French versions are automatically generated by the AI. So there may still be inaccuracies in translating, please always see Indonesian as our main language. (system supported by DigitalSiber.id)