

当前的人工智能热潮对计算能力的需求非常大。目前,大部分算力都来自英伟达的GPU,也就是图形处理器——该公司占据着约90%的人工智能芯片市场。在本周的一则公告中,该公司宣布了其下一代GH200 Grace Hopper超级芯片平台,旨在巩固其主导地位。
虽然大多数消费者可能更倾向于将GPU视为游戏PC或游戏机的一个组件,但它们在娱乐领域之外的应用更为广泛。它们被设计用来并行处理数十亿个简单的计算,这种特性不仅能让它们以高帧率渲染高清计算机图形,还能让它们挖掘加密货币、破解密码,以及训练和运行大型语言模型(LLM)和其他形式的生成式AI。实际上,GPU这个名字已经有些过时了——它们现在是极其强大的多用途并行处理器。
本周,在SIGGRAPH(计算机图形学会议)上,英伟达宣布了其下一代GH200 Grace Hopper超级芯片平台。该公司在新闻稿中解释说,这些芯片“旨在处理世界上最复杂的人工智能生成工作负载,涵盖大型语言模型、推荐系统和向量数据库。”换句话说,它们的设计目的是尽可能快速高效地完成这些AI系统所需的数十亿个微小计算。
GH200是H100的继任者,H100是英伟达目前最强大(且需求极其旺盛)的人工智能专用芯片。GH200将采用相同的GPU,但拥有141 GB内存,而H100的内存为80 GB。GH200还将提供其他几种配置,包括一种双配置,该配置将结合两个GH200,提供“比当前一代产品高3.5倍的内存容量和3倍的带宽”。
[相关:关于人工智能的广阔世界,一份简单的指南]
GH200专为数据中心设计,如亚马逊网络服务和微软Azure运营的数据中心。“为了满足生成式AI激增的需求,数据中心需要具备专门需求的加速计算平台,”英伟达创始人兼首席执行官黄仁勋在新闻稿中表示。“新的GH200 Grace Hopper超级芯片平台通过卓越的内存技术和带宽来提高吞吐量,能够无损地连接GPU以聚合性能,以及一种可以轻松部署到整个数据中心的服务器设计,从而满足这一需求。”
像GH200这样的芯片对于训练和运行(或“推理”)AI模型都至关重要。当AI开发人员创建新的LLM或其他AI模型时,需要几十个或数百个GPU来处理海量的训练数据。然后,一旦模型准备就绪,就需要更多的GPU来运行它。增加的内存容量将允许每个GH200在不需要将计算工作负载拆分到多个不同GPU上时运行更大的AI模型。不过,对于“巨型模型”,可以将多个GH200与英伟达NVLink结合使用。
尽管英伟达是市场上的主导者,但它并非唯一一家制造人工智能芯片的制造商。AMD最近宣布了MI300X芯片,该芯片拥有192 GB内存,将与GH200展开竞争,但它能否获得 significant 市场份额仍有待观察。还有许多初创公司也在制造人工智能芯片,如SambaNova、Graphcore和Tenstorrent。像谷歌和亚马逊这样的科技巨头也开发了自己的芯片,但它们在市场上的表现同样落后于英伟达。
英伟达预计,使用其GH200芯片构建的系统将于明年第二季度上市。该公司尚未透露价格,但考虑到H100在eBay上的售价可能超过40,000美元,因此它们不太可能出现在许多游戏PC中。