智算中心快速投产高效运营?42kW风冷算力仓来助力
2024-09-25 / 阅读约5分钟
来源:美通社
北京2024年9月25日 /美通社/ -- 步入AI时代,AI大模型对基础设施的重构超乎想象,一方面要满足大模型训练和推理对澎湃算力的要求,另一方面则需化解能源消耗造成的运营压力。快速部署、超大规...

北京2024年9月25日  /美通社/ -- 步入AI时代,AI大模型对基础设施的重构超乎想象,一方面要满足大模型训练和推理对澎湃算力的要求,另一方面则需化解能源消耗造成的运营压力。快速部署、超大规模、超强算力、超低能耗成为下一代智算中心的演进方向。浪潮信息42kW智算风冷算力仓实现了高密度与低能耗并进,高算效与高能效齐飞,并使算力部署速度跑赢业务上线时间,助力智算中心快速投产高效运营。


AI 时代浪潮下,智算中心建设面临三重挑战

随着AIGC蓬勃发展,对计算资源的需求呈现出指数级增长。传统数据中心基础设施的建设速度难以跟上AI算力需求增长的速度。同时,传统机房由于单柜功率低、网络及场地环境差,改造复杂,同样难以满足智算中心快速建设和算力服务快速上线的需求。

另一方面,算力需求猛增导致服务器单机功耗以及单机柜功率密度不断攀升,传统数据中心单机柜功率多为3~7kW,而每台AI服务器的功耗现在已超过10kW,这意味着1台AI服务器需要占用两个机柜的电力和散热资源,机柜资源、机房空间严重浪费,智算中心需要实现更高算力密度的部署,并解决随之而来的如何在有限空间内实现高效散热和供电的难题。

同时,AI算力发展也使得智算中心的能耗问题更加突出。国家相关政策对数据中心PUE进行了严格限制要求,提出2025年底,新建/改扩建大型及超大型数据中心PUE不超过1.25,算力枢纽节点PUE不超过1.2。当场地限制不具备液冷部署条件时,如何实现高密风冷智算中心的高效散热、节能降碳是亟需解决的难题。

创新42kW智算风冷算力仓快速建成"高密低耗"智算中心

为解决AI时代智算中心建设面临的高密度部署、高功率散热挑战,实现高密度与低能耗齐头并进,能投天府云和浪潮信息创新开发42kW智算风冷算力仓解决方案,以AI算力为核心,兼容国内外主流的CPU和异构加速芯片,集计算/存储/网络于一体,高效融合机柜、配电、UPS、空调、监控、消防等系统,极大提升智算中心建设交付速度,是为AI服务器量身定制的支持高算力密度部署的新一代智算基础设施。

  • 快速交付带来"省时",智算中心建设周期缩短70%。采用高度集成系统设备,模块化设计、积木式建设、去工程化安装等方法,例如出厂集成冷热通道,无需施工搭建传统风冷通道件,计算/存储/网络按需扩容等,实现AI服务器+数据中心基础设施一体化交付。
  • 高密部署促成"省地",大幅提升智算中心算力密度。单机柜功率密度从3~7kW提升至42kW,意味着比传统数据中心减少40%模块部署量和60%建设用地。而高密部署必然要实现高密散热,当单柜功率密度提升至8~10倍后,如何解决风冷散热问题,智算风冷算力仓一方面采用封闭冷热通道,避免传统大空间弥漫式送风导致的风量处理不集中及冷量散失问题,实现冷量100%利用;另一方面,独创空调双群控策略,嵌套两组轮巡调控算法,避免因单台空调设备故障或轮巡休眠出现的局部热点超温问题,提升系统可靠性的同时将制冷系统能效比提升逾10%。
  • 高效节能造就"省电",给智算中心卸下重负。供配电系统创新采用全功率简链路供电+高效UPS一体设计,实现兆瓦级一体解决方案,供电效率大幅提升,有效降低电能损耗30%以上,风冷散热PUE能降至1.25以下。
  • 安全智能引致"省心",为智算中心运营吃下定心丸。采用浪潮信息InManage+动环融合创新平台,解决两套独立软件平台数据不互通的问题,实现了智算中心统一纳管,并进行高密单排微模块2D/3D可视化、核心制冷部件远程调控等5大功能创新,实现智算中心智能管理、精准运维,安全可靠性提升30%;采用AIStation智能业务生产创新平台,还能有效提升大模型算力平台的使用效率,助力客户加速AI大模型开发与部署。

42kW风冷智算算力仓一经推出便广受客户青睐,短短1个季度内就实现了规模化应用,以天府智算西南算力中心为样板,打造为AI而生的新一代智算中心。在天府智算西南算力中心,国内首款42kW智算风冷算力仓投运,"高密度、低能耗"双管齐下,智算中心实现算效、能效双提升,作为成渝枢纽的重要组成部分,为人工智能产业发展提供优质算力支撑。

简体中文 繁體中文 English 日本語 Deutsch 한국 사람 русский بالعربية TÜRKÇE português คนไทย Français