英伟达正在推出一款新的必备人工智能芯片客户仍在争夺最后一款芯片

导读 Nvidia正在推出一款用于人工智能工作的新型顶级芯片HGXH200。新的GPU对广受欢迎的H100进行了升级,内存带宽提高了1 4倍,内存容量提高了1 8

Nvidia正在推出一款用于人工智能工作的新型顶级芯片HGXH200。新的GPU对广受欢迎的H100进行了升级,内存带宽提高了1.4倍,内存容量提高了1.8倍,提高了其处理密集型生成式AI工作的能力。

最大的问题是,公司是否能够获得新芯片,或者它们是否会像H100一样供应紧张——而Nvidia对此并没有给出答案。首批H200芯片将于2024年第二季度发布,Nvidia表示正在与“全球系统制造商和云服务提供商”合作以提供这些芯片。英伟达发言人KristinUchiyama拒绝就产量数据发表评论。

除了内存之外,H200与H100基本相同。但对其内存的改变带来了有意义的升级。新的GPU首次使用名为HBM3e的新的、更快的内存规格。这使得GPU的内存带宽从H100的每秒3.35TB提高到4.8TB,总内存容量从前代产品的80GB提高到141GB。

Nvidia高性能计算产品副总裁IanBuck表示:“更快、更广泛的HBM内存的集成有助于提高计算要求较高的任务的性能,包括生成式AI模型和[高性能计算]应用程序,同时优化GPU利用率和效率。”今天早上在视频演示中说道。

H200还可以与已支持H100的相同系统兼容。Nvidia表示,云提供商在将H200添加到组合中时不需要进行任何更改。亚马逊、谷歌、微软和甲骨文的云部门将成为明年首批提供新GPU的公司之一。

一旦推出,新芯片肯定会很昂贵。Nvidia没有列出它们的成本,但CNBC报道称,上一代H100的售价估计为每台25,000至40,000美元,需要数​​千台才能以最高水平运行。内山表示,定价是由英伟达的合作伙伴制定的。

Nvidia宣布这一消息之际,人工智能公司仍在拼命寻找其H100芯片。Nvidia的芯片被视为高效处理训练和操作生成图像工具和大型语言模型所需的大量数据的最佳选择。这些芯片非常有价值,以至于公司可以将其用作贷款抵押品。谁拥有H100是硅谷八卦的话题,初创公司一直在合作,只是为了分享对它们的访问权。

内山表示,H200的首次亮相不会影响H100的生产。“你会看到我们全年的总体供应量有所增加,并且我们将继续长期购买供应,”内山在给TheVerge的电子邮件中写道。

明年对于GPU买家来说将是一个更加有利的时期。8月,英国《金融时报》报道称,Nvidia计划在2024年将H100的产量增加两倍。目标是明年将产量从2023年的约50万台增加到200万台。但如今的生成式AI仍具有爆炸性与今年年初一样,需求可能只会更大——而那是在英伟达推出更热门的新芯片之前。