Ai快讯 10月1日,人工智能基础设施企业SuperX(纳斯达克代码:SUPX)公开宣布推出SuperX模块化AI工厂这一全栈式解决方案,旨在系统性解决传统AI数据中心面临的建设周期漫长、成本开支高昂、能源消耗巨大以及扩展灵活性不足等核心痛点,为AI时代的算力部署提供创新途径。
近年来,随着大模型应用的爆发式增长,全球对AI算力的需求急剧攀升。然而,传统数据中心漫长的建设周期成为制约AI产业发展的关键瓶颈。众多企业在巨额投入后,往往需等待将近两年才能获得可用的算力资源,产生了巨大的时间成本。
SuperX模块化AI工厂的诞生有望破解这一行业困境。该方案通过将算力、冷却和电源系统在工厂进行预制化和深度集成,并减少楼宇建设工程量,有望将AI数据中心的建设周期从传统的18 - 24个月大幅缩短至6个月以内。
该解决方案的核心优势体现在四个维度:
交付速度上,所有核心模块,包括算力、冷却和电源单元,均在工厂完成预制、集成与测试,现场只需进行快速拼装,预计部署时间可控制在6个月以内,这意味着AI企业能够更快地将算力转化为业务价值。
算力密度方面,其核心算力单元SuperX NeuroBlock最高支持24台NVIDIA GB300 NVL72,功率达3.5MW,为传统方案的7倍。通过与高密度液冷和HVDC供电系统的深度耦合,实现高算力密度,同算力密度下占地面积大幅度减少,从而在更小的物理空间内释放更大的算力。
能效上,该方案全面采用高压直流(HVDC)供电技术,将端到端供电效率提升至98.5%以上,并结合液冷技术,使整体PUE(电源使用效率)低至1.15,对比传统风冷(PUE约1.5)方案总体能耗降低23%。
灵活性上,通过模块化的部署,该方案将传统数据中心建设中需要在现场完成的复杂工程,转变为在工厂内完成的标准化模块生产。客户还可以根据业务需求,从单个模块起步,按需进行“1到N”的无缝线性扩展。
SuperX表示,模块化AI工厂的创新点在于将算力、冷却、电源高度集成,将AI基础设施从“复杂定制”转变为“标准化产品”,实现即插即用的根本性转变。这一创新解决方案有望驱动传统数据中心向AI工厂全面转型。
(AI撰文,仅供参考)
重要提示:本文仅代表作者个人观点,并不代表乐居财经立场。 本文著作权,归乐居财经所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至ljcj@leju.com,或点击【联系客服】