中国自动化学会专家咨询工作委员会指定宣传媒体
新闻详情
isee-

英伟达重磅发布!多款王炸持续问鼎人工智能

http://www.gkong.com 2024-03-26 10:22 来源:英伟达

北京时间3月19日凌晨,英伟达(NVIDIA)公司创始人兼首席执行官黄仁勋在 GTC2024 发表主题演讲,发布了加速计算以及机器人领域的最新突破性成果,其中最大的爆点无疑是全新 Blackwell 架构的推出。

基于 Blackwell 架构,英伟达还正式发布了全球最强的B200 和 GB200 超级芯片,以及由36组 Grace CPU 和72组 Blackwell GPU 组合而成的液冷机架级系统 GB200 NVL72 。

据英伟达介绍

Nvidia NVL72 机架级 AI 系统拥有1440petaflops(又名1.4exaflops)的推理能力,能够支持大规模的训练和推理任务,可处理高达27万亿个参数的大语言模型。与用于推理用途的相同数量的 H100 Tensor Core 图形处理单元相比,GB200 NVL72性能提升高达30倍。此外,该系统还可将成本和能耗降低多达25倍。

GB200 NVL72 液冷机架服务器

想要发挥最大性能并非易事,需要考虑众多因素,为充分发挥 Blackwell 架构的潜力,英伟达的GB200 NVL72 机架级服务器采用液态冷却系统。事实上,对于 Blackwell 架构的芯片来说,采用液态冷却系统不仅是最佳选择,而且几乎是运行的必备条件。

粗略估算,在全负荷运转下,GB200 包括两个1200W的GPU,以及300W的Arm CPU,可能的总功耗大约为2700W,远超传统风冷能力所及。然而借助液冷系统配置,即便在满负荷运作时,芯片的热输出也可以达到1200W,同时实现20petaflops 的强大性能。通过采用液冷技术,英伟达得以继续突破AI加速器的性能极限,而无需担忧冷却系统的限制,据悉,英伟达计划在后续全系列产品上应用液冷散热技术。

服务器液冷技术

如今,在人工智能训练负载任务日益复杂、相应硬件功耗不断上升的背景下,液冷技术已经成为解决人工智能服务器高功耗散热的核心方案,可以使核心芯片发挥出最佳性能水平。

史陶比尔作为全球快速连接解决方案的佼佼者,在液冷技术领域具备超过30年的深入研究和批量部署经验,专注于为服务器液冷系统提供安全、可靠,且优于行业标准的液冷连接器解决方案。在AIGC等先进人工智能模型需求不断攀升的驱动下,凭借技术实力和产品可靠性,史陶比尔能够为液冷系统在服务器领域的加速发展提供强力的技术支持和保障,为构建能效更高的AI服务器系统贡献力量。

版权所有 中华工控网 Copyright©2024 Gkong.com, All Rights Reserved