Supermicro推出三款基于NVIDIA技术的全堆栈结构、可立即部署型生成式AI SuperCluster,从企业级扩展到大型LLM基础架构

全栈式SuperCluster包括气冷、液冷训练与云端级推理机柜配置,并搭载全新NVIDIA Tensor Core GPU、网络与NVIDIA AI Enterprise软件

美国圣何塞2024年3月22日 /美通社/ -- Supermicro, Inc.(纳斯达克股票代码:SMCI)作为AI、云端、储存和5G/边缘领域的全方位IT解决方案制造商,宣布推出其最新产品组合,加速生成式AI部署。Supermicro SuperCluster解决方案能为目前及未来大型语言模型(Large Language Model,LLM)硬件基础设施提供核心建构组件。

Supermicro三款强大的SuperCluster解决方案现已上市并可被用于生成式AI工作运行。这些解决方案内的4U液冷系统或8U气冷系统是专为强大LLM训练性能以及高度批次大小且大量的LLM推理所设计。配备了1U气冷Supermicro NVIDIA MGXTM系统的第三款SuperCluster超级集群则针对云端级推理进行了优化。

Supermicro总裁兼首席执行官梁见后(Charles Liang)表示:"在AI时代,算力以集群来衡量,不再只用服务器数量作为依据。我们的全球制造产能已扩大到每月5,000台机柜,能比以往更快地为客户提供完整生成式AI计算集群。只需通过我们采用400Gb/s NVIDIA Quantum-2 InfiniBand和Spectrum-X Ethernet网络技术的数个可扩充型集群建构组件,一个64节点的计算集群能支持具有72TB HBM3e的512个NVIDIA HGX H200 GPU。结合了NVIDIA AI Enterprise软件的Supermicro SuperCluster解决方案非常适合用于针对现今企业与云端基础架构的LLM训练,且最高可达兆级参数。互连的GPU、CPU、内存、储存、以及网络硬件在被部署至机柜内的多个节点后形成现今AI技术的基础。Supermicro的SuperCluster解决方案为快速发展的生成式AI与LLM提供了核心建构组件。"

欲了解Supermicro AI SuperCluster的详细信息,请访问:www.supermicro.com/ai-supercluster

NVIDIA GPU产品管理副总裁Kaustubh Sanghani表示:"NVIDIA最新型GPU、CPU、网络与软件技术助力能让系统制造者为全球市场内不同类型的下一代AI工作运行实现加速。通过结合基于Blackwell架构产品的NVIDIA加速计算平台,Supermicro能提供客户所需要的前沿服务器系统,且这些系统可容易地被部署至数据中心。"

Supermicro 4U NVIDIA HGX H100/H200 8-GPU系统通过液冷技术使8U气冷系统计算密度加倍,同时降低功耗量与总体拥有成本(TCO)。这些系统旨在为了支持下一代NVIDIA的Blackwell架构GPU。Supermicro冷却分配单元(Cooling Distribution Unit,CDU)与冷却分配分流管(Cooling Distribution Manifold,CDM)是主要冷却液流动脉络,可将冷却液输送至Supermicro定制的直达芯片(Direct-to-Chip,D2C)冷板,使GPU和CPU处于最佳运行温度,进而实现效能最大化。此散热技术可使一整座数据中心电力成本降低最多40%,同时节省数据中心占地空间。欲深入了解Supermicro液冷技术,请访问:https://www.supermicro.com/en/solutions/liquid-cooling

搭载NVIDIA HGX H100/H200 8-GPU的系统非常适合用于训练生成式Al。通过NVIDIA® NVLink®技术高速互连的GPU,以及高GPU内存带宽与容量,将成为符合成本效益地运行LLM的核心关键。Supermicro的SuperCluster具备庞大GPU共享资源,能作为一个AI超级计算机进行计算作业。

无论是导入一个最初就以数兆级词元(token)数据集进行完整训练的大型基础模型,或开发一个云端级LLM推理基础架构,具有无阻式400Gb/s网络结构的脊叶网络拓扑(Spine and Leaf Network Topology)都能从32个计算节点顺畅地扩展至数千个节点。针对完全整合的液冷系统,Supermicro在产品出厂前会凭借经认证的测试流程彻底验证与确保系统运行有效性与效率。

采用了NVIDIA GH200 Grace Hopper Superchip的Supermicro NVIDIA MGX™系统设计将能打造出未来AI计算集群的架构样式以解决生成式AI的关键瓶颈:运行高推理批次大小的LLM所需的GPU内存带宽及容量,进而降低运营成本。具有256节点的计算集群能实现云端级大量推理算力引擎,并易于部署与扩充。


配置4U液冷系统的5组机柜或8U气冷系统的9组机柜型SuperCluster

单一可扩充单元含256个NVIDIA H100/H200 Tensor Core GPU 液冷技术可支持512个GPU、64个节点,而其体积空间等同于搭载256个 GPU的气冷式32节点解决方案 单一可扩充单元含具有20TB HBM3的NVIDIA H100或具有36TB HBM3e的NVIDIA H200 一对一网络传输结构可为每个GPU提供最高400 Gbps带宽,并支持 GPUDirect RDMA与GPUDirect Storage技术,实现最高兆级参数的LLM训练 400G InfiniBand或400GbE Ethernet网络交换器结构采用高度可扩充型脊叶网络拓扑技术,包括NVIDIA Quantum-2 InfiniBand和NVIDIA Spectrum-X Ethernet网络平台 可定制化AI数据管道储存结构具有业界领先的平行文件系统选项技术 搭载NVIDIA AI Enterprise 5.0软件,可支持可加速大规模AI 模型部署的新型NVIDIA NIM推理微服务

配置1U气冷NVIDIA MGX系统的9组机柜型SuperCluster

单一可扩充单元含256个GH200 Grace Hopper Superchips 最高可达144GB HBM3e加480GB LPDDR5X的统一内存,适用于云端级、大量、低延迟和高批次推理,并能在单一计算节点中容纳超过700亿个参数规模的模型 400G InfiniBand或400GbE Ethernet网络交换器结构采用了高度可扩充型脊叶网络拓扑技术 每节点最多含8个内建E1.S NVMe储存装置 可定制化AI数据管道储存结构搭配NVIDIA BlueField®-3 DPU与领先业界的平行文件系统选项,能为每个GPU提供高传输量、低延迟的储存装置存取 NVIDIA AI Enterprise 5.0软件

通过GPU间可实现的优异互连性能,Supermicro的SuperCluster解决方案针对LLM训练、深度学习,以及大量且高批次推理进行了优化。Supermicro的L11和L12验证测试结合了现场部署服务,可为客户提供无缝体验。客户收到即插即用的可扩充单元后能实现数据中心内的轻松部署,并可更快获取成果。

关于Super Micro Computer, Inc.

Supermicro(纳斯达克股票代码:SMCI)是应用优化全方位IT解决方案的全球领导企业。Supermicro的成立据点及营运中心位于美国加州圣何塞,致力为企业、云端、AI和5G电信/边缘IT基础架构提供领先市场的创新技术。我们是全方位IT解决方案制造商,提供服务器、AI、存储、物联网、交换器系统、软件及支持服务。Supermicro的主板、电源和机壳设计专业知识进一步优化我们的开发与生产,为我们的全球客户实现从云端到边缘的下一代创新。我们的产品皆由企业内部团队设计及制造(在美国、亚洲及荷兰),经由产品设计优化降低总体拥有成本(TCO),并通过绿色计算技术减少环境冲击,且在全球化营运下达到极佳的制造规模与效率。屡获殊荣的Server Building Block Solutions®产品组合使客户能从极多元系统产品线内选择合适的机型,进而将工作负载与应用达到最佳效能。多元系统产品线由高度弹性、可重复使用的建构组件打造而成,而这些建构组件支持各种硬件外形规格、处理器、内存、GPU、存储、网络、功耗和散热解决方案(空调、自然气冷或液冷)。

Supermicro、Server Building Block Solutions和We Keep IT Green皆为Super Micro Computer, Inc. 的商标和/或注册商标。

所有其他品牌、名称和商标皆为其各自所有者之财产。

原创文章,作者:,如若转载,请注明出处:https://knewsmart.com/archives/258080

(0)
上一篇 2024年3月25日 上午8:39
下一篇 2024年3月25日 上午9:39

相关推荐

发表回复

登录后才能评论