NVIDIA 于周一宣布推出 HGX H200 Tensor Core GPU,采用 Hopper 架构,旨在加速 AI 应用。 H200 是继去年推出的 H100 后的新作,后者曾是 NVIDIA 最强大的 AI 芯片。 若 H200 得到广泛应用,可能会在不久的将来使 AI 模型变得更加强大,并加快现有模型如 ChatGPT 的反应速度。
专家指出,过去一年,计算能力不足一直是 AI 发展的主要瓶颈,阻碍了现有 AI 模型的部署并放缓了新模型的开发。 导致这一问题的主要原因是强大的 GPU(加速 AI 模型的芯片)短缺。 解决计算瓶颈的方法之一是制造更多芯片,另一种则是提升 AI 芯片的性能。 后者可能使 H200 成为云服务提供商的理想选择。
NVIDIA 的超级计算与高性能计算副总裁 Ian Buck 在新闻稿中表示:「为了用生成性 AI 和 HPC 应用创建智能,必须使用大型、快速的 GPU 内存,高效处理大量数据。」 他还提到,凭借英伟达H200,这一行业领先的端到端AI超级计算平台的速度更快,可以解决一些世界上最重要的挑战。
例如,OpenAI曾多次表示其GPU资源不足,这导致ChatGPT的延迟。 该公司不得不依赖速率限制来提供任何服务。 从理论上讲,使用H200可能会为运行ChatGPT的现有AI语言模型提供更多空间,以服务更多客户。
据 NVIDIA 称,H200 是首款提供 HBM3e 内存的 GPU。 凭借HBM3e,H200提供了141GB的内存和每秒4.8TB的带宽,NVIDIA认为这是2020年发布的NVIDIAAA100的内存带宽的2.4倍。 尽管A100已经上市多年,但由于更强大芯片的短缺,它仍然需求旺盛。
NVIDIA 将以多种形式推出 H200,包括四路和八路配置的 NVIDIA HGX H200 服务器板,兼容 HGX H100 系统的硬件和软件。 它还将作为 NVIDIA GH200 Grace Hopper 超级芯片的一部分推出,该超级芯片将 CPU 和 GPU 结合在一起,为 AI 提供更大的性能提升。
Amazon Web Services、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 将是首批部署基于 H200 的实例的云服务提供商,预计将于明年开始。 NVIDIA 表示,H200 将于 2024 年第二季度开始「在全球系统制造商和云服务提供商」处可用。