发布时间:2023-11-14 14:57:43 栏目:科技
NVIDIA宣布推出全新 H200 Hopper GPU,该 GPU 现在配备了美光全球最快的 HBM3e 内存。除了新的人工智能平台之外,NVIDIA 还宣布凭借 Grace Hopper 超级芯片赢得超级计算机重大胜利,该芯片现已为 Exaflop Jupiter 超级计算机提供动力。
NVIDIA 通过升级的 Hopper GPU、Grace Hopper 超级芯片和超级计算机继续打造 AI 动力
NVIDIA 的 H100 GPU 是迄今为止业界需求量最大的 AI 芯片,但绿色团队希望为其客户提供更高的性能。HGX H200 是最新的 AI HPC 和计算平台,由 H200 Tensor Core GPU 提供支持。这些 GPU 在硬件和软件上均采用最新的 Hopper 优化,同时提供迄今为止世界上最快的内存解决方案。
NVIDIA H200 GPU 配备了美光的 HBM3e 解决方案,内存容量高达 141 GB,带宽高达 4.8 TB/s,与 NVIDIA A100 相比,带宽增加了 2.4 倍,容量增加了一倍。在 Llama 2(700 亿参数 LLM)等应用中,这种新的内存解决方案使 NVIDIA 的 AI 推理性能比 H100 GPU 提高了近一倍。TensorRT-LLM 套件的最新进展也为大量人工智能应用带来了巨大的性能提升。
在解决方案方面,NVIDIA H200 GPU 将广泛应用于具有 4 路和 8 路 GPU 配置的 HGX H200 服务器中。HGX 系统中 H200 GPU 的 8 路配置将提供高达 32 PetaFLOP 的 FP8 计算性能和 1.1 TB 的内存容量。
NVIDIA H200 GPU:配备 HBM3e 内存,将于 2024 年第二季度上市
GPU还将与现有的HGX H100系统兼容,使客户能够更轻松地升级其平台。华硕、华擎 Rack、戴尔、Eviden、技嘉、慧与、鸿毅科技、联想、QCT、纬颖科技、超微和纬创等 NVIDIA 合作伙伴将在 H200 GPU 于 2024 年第二季度上市时提供更新的解决方案。
免责声明:本文由用户上传,如有侵权请联系删除!