导航菜单

英伟达将全力支持ARM 提升超级计算能力

NVIDIA和ARM为超级计算机制造了一个功率偶. NVIDIA宣布其芯片将与ARM处理器合作. 外部观察人士本周早些时候开始忙于评估为什么这对两家公司都是一件大事,而解释这一点并不困难。

保罗莉,热硬件,发现这是一个双赢的NVIDIA和ARM.. “就前者而言,一旦堆栈优化完成,公司就可以吹嘘对每个主要CPU平台的支持,包括ARM、IBM Power,当然还有x86。 对于ARM来说,进入NVIDIA的CUDA堆栈是GPU马力的一大提升,也是客户的卖点。”

在下一个平台上,Timothy Prickett Morgan说,ARM在许多HPC中心得到了支持,因此NVIDIA采用这种处理器体系结构并不令人惊讶。

重音可以在全词上。 NVIDIA的全套AI和HPC软件正在提供给ARM生态系统. 就像蒂莫西·普利特·摩根看到的那样,一个像操作系统一样复杂的GPU计算软件堆栈正在来到ARM。

这包括什么? (1)所有CUDA X AI和HPC库;(2)GPU加速的AI框架;(3)软件开发工具(例如,具有开放ACC支持的PGI编译器)。

NVIDIA说,AI和HPC软件的堆叠,加速了600多个HPC应用程序和所有AI框架,到年底将提供。

CUDA代表计算统一设备体系结构. 注册中的Chris Mellor写道:“对于未启动的人来说,CUDA是一个编程接口,用于将Nvidia图形处理器转化为神经网络应用程序、模拟和其他向量密集型软件的数学加速器。”

加雷斯·哈弗拉克里用比特技术谈过这件事。 它允许在NVIDIA图形处理器上执行通用的、通常是非图形的工作负载,并允许并行性好的工作负载,他说,“这可能导致性能的急剧提升。”

他补充说,CUDA以前在ARM上得到了部分支持,但不同的是,现在“Nvidia已经确认,它将在年底前将其所有的人工智能和高性能计算软件移植到ARM上。”

NVIDIA的新闻发布也证实了这两家公司在支持HPC系统方面并不陌生,他们合作了10多年。 因此,当他们写标题时,登记册可能会被原谅打哈欠。 “Nvidia‘把CUDA打造成手臂’-翻译:我们仍然在做一件我们已经做过的事情,但现在做的更多。”

“NVIDIA与ARM有着悠久的合作历史,”Hot Hardware说,因此这一宣布并不奇怪,即使“有点逾期”。

梅勒说:“任何使用过,比如,Nvidia的汽车和互联网开发板之一的人,都会知道Nvidia已经开发和分发了与ARM兼容的CUDA库和工具包。

与此同时,路透社(Reuters)指出,这一最新举措如何能够加深NVIDIA对用于模拟气候变化预测等问题的系统的推动。 他说,“研究人员现在也利用数据中心的芯片来加快人工智能计算工作,比如训练计算机识别图像。”

Halfacree说,Nvidia证实,它正在ARM上提供完整的CUDA堆栈,以“跟随行业的兴趣,在未来的exascale系统中使用低功耗芯片。”

Nellis指出,这项与ARM合作的超级计算机交易是在购买以色列公司MellanoxTechnologies之后进行的。 “Mellanox制造高速网络芯片,帮助将许多较小的计算机拼接成一个更大的计算机,并在一些世界上最强大的超级计算机中找到。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。