Ai快讯 8月7日,浪潮信息正式发布面向万亿参数大模型的超节点AI服务器——“元脑SD200”,目前该产品已实现商用。
“元脑SD200”基于浪潮信息创新研发的多主机低延迟内存语义通信架构,采用开放系统设计向上扩展(Scale up),可支持64路本土GPU芯片。其能够实现单机内运行超万亿参数大模型,还支持多个领先大模型机内同时运行以及多智能体实时协作与按需调用。
超节点是借助GPU互联技术实现的超大计算系统,它将多台服务器、多张算力芯片卡整合为规模更大、算力更强的整体算力单元,突破了传统算力部署的边界。这种聚合并非简单的硬件堆叠,而是通过优化节点内互联技术、液冷散热等手段,提升集群整体能效、通信带宽与空间利用效率。
浪潮信息副总经理赵帅指出,当前混合专家模型的高效架构促使大模型参数规模持续扩展,国内外前沿大模型的参数量快速突破万亿规模,这给算力系统架构带来新挑战。一方面,模型参数量和序列长度增加使键值缓存激增,单芯片或节点性能提升已无法满足超大显存空间承载需求;另一方面,智能体AI开启多模型协作新范式,推理过程生成的数据词元比传统模型多近百倍,导致计算量大幅增加。传统算力架构难以满足高效、低耗、大规模协同的AI计算需求,行业急需技术革新。在此背景下,产业界转向构建超节点以及产业链多环节协同创新来解决当下算力需求。
“元脑SD200”超节点基于开放总线交换技术构建,成功解决了万亿大模型对超大显存空间和超低通信延时的核心需求。在开放架构基础上,通过智能总线管理和开放的预填充—解码(PD)分离推理框架实现软硬件深度协同,智能化管理复杂AI计算任务。
赵帅表示,优秀的软硬件协同能力是浪潮信息的优势。“元脑SD200”超节点AI服务器通过软硬协同系统创新,成功向上扩展突破芯片性能边界,在大模型场景中表现优异。结合优化的PD分离框架,SD200超节点满机运行DeepSeek R1全参模型推理性能超线性提升比为3.7倍,满机运行Kimi K2全参模型推理性能超线性提升比为1.7倍。
当前,开源模型的飞速发展加速了智能时代的到来,推动研发范式从封闭走向开放协作,大模型参数量的不断提升对算力基础设施建设提出了更高要求。浪潮信息通过开放系统架构创新,为开源大模型的规模化落地和应用创新提供关键支撑。超节点的搭建需要大量高速连接器、高速线缆、板材等产品,浪潮信息此举将带动上下游相关技术的创新突破和应用,推动形成更优的产业生态,提高生态竞争力。
(AI撰文,仅供参考)
相关标签:
Ai滚动快讯重要提示: 以上内容由AI根据公开数据自动生成,仅供参考、交流、学习,不构成投资建议。如不希望您的内容在本站出现,可发邮件至ljcj@leju.com或点击【联系客服】要求撤下。未经允许,任何单位或个人不得在任何平台公开传播使用本文内容。