C114讯 3月24日消息(苡臻)当人工智能的浪潮席卷全球,算力需求正以超摩尔定律的速度狂飙突进。数据中心作为算力的核心承载单元,其发展态势深刻影响着各行业的数字化进程。
近日,在“算电协同绿色发展及应用跨行业生态论坛”期间,中国石油天然气股份有限公司勘探开发研究院数据中心专家、高级工程师于庆友在接受C114等媒体采访时,针对当前算力激增背景下,数据中心领域一系列新动态,展开了深入且独到的解读。
算力浪潮下 数据中心现状
随着人工智能产业的发展,智能化成为算力快速增长的驱动力,数据中心、智算中心等多种算力相互融合协同趋势明显。至2024年底,我国智算规模快速发展,近三年年均增速达到55%。
于庆友表示,当前,数据中心、智算中心建设呈绿色化、高密化、协同化的发展趋势。
按工信部要求,到2025年全国新建大型、超大型数据中心、智算中心电能利用效率(PUE)应降到1.3以下,液冷和风液结合将成为主流趋势;同时数据中心每5年功率密度提升1倍,10KW、20KW、40KW机柜将逐渐成为主流趋势;随着工业互联网应用,人工智能训练推理场景联动,数据中心呈现集团-边缘多级、协同联动。
另外,网络系统方面,呈现用户带宽需求剧增、网络质量快速提升、光纤容量大幅增加的发展趋势。2000-2023年,用户接入带宽从传统互联网5M发展至移动互联网500M、再至人工智能时代10G,网络带宽需求增长2000倍。
目前,网络质量呈现更高网络可靠性、更低转发时延、更快接入效率的趋势。数据传输技术不断发展,商用单波速率从100G至400G快速发展,单光纤容量经过40年发展容量提升200万倍。
设备设施方面,算力体系设备设施含IT设备(信息技术设备)和基础设施(数据中心基础设施设施)两类。IT设备主要指服务器、存储、网络等设备,基础设施主要指电气、暖通、空调等设施。
根据“设备设施浴盆曲线”,IT设备使用超过6年、基础设施使用超过8年,故障率指数级增长、运行风险剧增、运维服务费用高企。业界IT设备更新周期为5至8年(其中互联网企业为3至5年),基础设施更新周期为7至15年,亟需进行设备更新。
数据中心新趋势与应对之策
近年来,随着智算及超算的发展,数据中心对设备功率的要求显著增加,这对网络、供电稳定性和连续性、以及制冷环境等提出了新的挑战。
于庆友指出,为提高数据中心、智算中心基础设施可靠性,通常根据建设等级要求选用容错或冗余配置方式提高网络、供配电、空调等系统可靠性,
例如,网络需有2~3个运营商提供保障,且应避免布置在同一物理空间内以防发生意外中断。供配电系统需要根据建设等级、安装容量、用途重要性等选用容错或冗余配置的供电方式,提高系统的可靠性;合理配备柴油发电机系统或其他应急电源。充分利用可再生能源和储能策略可有效降低运行能耗。
他指出,在低碳背景下,数据中心应利用外部自然冷却、使用可再生能源,如风能、光伏、潮汐能等,以降低 PUE值和WUE值,减少碳排放。
此外,从冷却技术层面看,主要有风冷、液冷和风液混合配置。“目前,大部分企事业单位的数据中心主要还是以风冷为主,但液冷在市场中的份额正迅速增加,未来液冷的比例将高于风冷,根据不同需求风冷与液冷混合配置将是一大趋势。”
液冷技术是利用液体介质与热源直接或间接接触进行换热,再由冷却液体将热量传递出去的冷却技术。液冷包括浸没式、冷板式、喷淋式。其中,浸没式液冷将服务器里面所有硬件直接浸泡在冷媒液体中,依靠流动的冷媒液体吸收服务器的发热量,浸没式换热效率高、运行能耗低,但维修不便、推广难度较大;冷板式液冷的冷却液不与服务器元器件直接接触,而是通过冷板间接对CPU和GPU进行热交换,换热效率较高、安全风险较小、适用范围广目前业界使用最多;喷淋式目前有少数厂家在做,其对安全和可操作性要求高,实际应用少。
采访最后,于庆友还提到了数据中心标准制修定方面的工作。他指出,《数据中心设计规范》计划于今年12月前完成重新修订,目前正在参与编写《算力设施工程技术标准》,预计明年6月前完成,后续还将对《数据中心基础设施运行维护标准》等相关标准进行修订。