2024-03-20 浏览量:1153
按照数字技术的发展技术,未来数据中心将具备安全可靠、融合极简、低碳绿色三大特征,具体到设备产品、数据系统和架构方面,也将呈现出不同的技术演进趋势。
大数据显示,从2019年到2022年,数据中心业务中断造成损失超过100万元的事件比例从约40%上升至70%,且会随着算力需求增长比例不断升高。毫无疑问,安全可靠是数据中心的核心诉求,应始终作为最高优先级关注。同时,随着AI大时代的来临,数据中心将从云数据中心向“云+智算中心”演进。未来,数据中心将具备安全可靠、融合极简、低碳绿色三大特征,具体到设备产品、数据系统和架构方面,也将呈现出不同的技术演进趋势。我们预测,在2024年,数据中心的发展将出现以下新变化。
高可靠产品+专业化服务是保障数据中心安全可靠运行的关键
数据中心承载着海量数据的存储、处理和传输任务,为各行各业的各种系统稳定运行提供保障,但数据中心的安全性、可靠性一直是较薄弱的环节。为确保数据中心能够安全可靠地运行,我们在产品设计、生产环节就要贯穿“全产业链安全”的理念,同时严控产线质量,实现高度自动化,减少人为干预,保障产品自身的高可靠性。此外,我们还要大胆假设,充分思考产品出现问题后应采取的应对措施,通过提供专业化部署和运维服务,降低产品失效率,减轻灾后影响,完善端到端的保障机制,以保障数据中心安全可靠运行。
分布式制冷架构将是保障温控安全的优选项
传统大型数据中心多采用集中式制冷架构,如传统冷冻水系统,该系统中的冷冻站包括七大子系统和上百种设备,各设备之间不能独立运行,一旦发生单点故障,可能会影响整个冷冻站的安全运行,进而导致数据中心大规模宕机。近年来,业内部分数据中心发生的多起安全事故也印证了集中式制冷架构存在单点故障的风险。相比之下,分布式制冷架构灵活,各子系统相互独立,单台设备故障不会影响其他设备运行,故障率更小,可靠性更高,能直接从架构设计上避免数据中心制冷系统单点运行的潜在风险,提升数据中心的运行可靠性。
预测性维护模块将成为数据中心基础设施的标配
数据中心的维护往往属于事后型维护,发生事故后才知道问题所在,但随着智算时代的到来,数据中心的故障响应时间将大幅缩短。未来,在数据中心基础设施的运维方面,预测性维护模块将成为标配,维护从事后型转为事前型。得益于AI技术的快速发展,预测性维护的范围将持续扩大,从电容、风扇等易损件的使用寿命预测到设备的热失控预警再到制冷系统的漏液预警,这些都能实现前置,从被动“救火”走向主动“防火”,在运维层面大幅提升数据中心的可靠性。
全生命周期的网络安全防护体系将成为数据中心基础设施的保护盾
随着数字化、智能化程度的加深,网络安全风险也在升级,网络攻击变得越来越常态化。UPS电源、空调设备等一旦遭遇恶意攻击,会直接影响数据中心的安全性、可靠性。未来,在数据中心基础设施层面,“硬件安全+软件安全”才是全方位的安全策略,尤其是针对软件安全,我们需要从供应安全、纵深防御、运维/运营安全三个维度考虑,构筑全生命周期网络安全防护体系,为数据中心的安全可靠运行保驾护航。
预制化、模块化将成为数据中心高质量快速交付的优选项
互联网云厂商的全球业务加速发展,带动了数据中心建设需求显著增长。但在传统的建设模式下,数据中心建设速度慢、工程复杂,不能很好地满足用户快速部署的需求。因此,建设周期更短、质量更高的预制化、模块化方案将成为首选。企业通过“工程产品化”和“产品模块化”方案,在工厂一体化集成数据中心的软硬件,并完成预制和预调试,保证现场交付的是高质量产品,这样既能有效缩短交付周期,也可以满足客户业务快速上线的需求。
专业化管理平台让数据中心运维更加安全和高效
从千柜级建筑到万柜级园区,数据中心越来越呈现出规模化、集约化的发展趋势,相应的整体运维复杂度也大幅提升,且数据中心设备多为“聋哑”设备,若使用传统巡检方法,不仅难度大,对运维人员技能的要求也较高,会导致故障定位时间长。构建专业化的管理平台可以显著提升数据中心运维工作的效率和准确性,帮助客户构建设备深度管理能力,做到快速判断问题、及时排除故障,确保数据中心安全稳定运行。
风液融合将成为业务需求不确定场景下的优选架构
当前正处于通用算力和智能算力交替的过渡期,同一个数据中心同时存在通用算力和智能算力应用场景。通用服务器单柜功率密度一般不超过15kW,风冷型设备即可满足其制冷散热需求,而智算中心单柜功率密度通常超过30kW,这种场景往往需要液冷设备来散热。对于需求不确定的业务场景,风液融合将成为适配未来数据中心演进路径的优选架构,它能够发挥“风冷+液冷”组合比例可调的优势,灵活应对业务需求变化。
间接蒸发冷却依然是未来的优选制冷方案
当前,风冷方案仍占据着主流的数据中心应用场景。在冷源侧,相较于冷冻水系统,间接蒸发冷却方案在架构、效率和运维方面存在明显优势,是未来较为经济适用的制冷方案。间接蒸发冷却的分布式制冷架构可有效避免单点故障,可靠性更高,并且它能充分利用自然冷源,仅需完成一次热交换,在寒冷地区绝大部分时间无需压缩机制冷,达到了很低的PUE值(数据中心能源效率评价指标)。此外,针对智能算力未来发展的液冷降温需求,间接蒸发冷却方案也能提供很好的技术支撑。
能效PUE挖潜要从关注部件效率调整转为关注系统工程优化
传统数据中心更关注提升UPS电源、空调等部件的效率,但因元器件的物理限制,部件的效率提升已接近瓶颈,微调改进的时间和成本较高,无法满足算力爆发时代的巨大需求。因此,提升数据中心能效需要转换思路,我们要从关注部件效率调整转为关注系统工程优化,用系统工程思维综合审视,在现实条件限制和部件技术水平提升间进行权衡,得出最优解,如UPS电源双变换模式转向S-ECO(智能在线模式),可以助力我们进行端到端的数据中心能效优化。
AI调优将成为实现存量数据中心能效智能优化的首选项
在数据中心节能方面,除了新建的数据中心,仍有大量存量数据中心的PUE值远高于国家一体化大数据中心建设的要求,迫切需要进行节能改造。传统的节能改造需要停线停业务,存在业务中断的风险,而采用人工调整优化的方式难度大、效果差、频率低。相比之下,AI能效调优解决方案能够通过预置AI算法和大数据模型,对存量数据中心实现节能优化,且AI调优不依赖人工经验,优化速度快、效果好,可以很好地实现从“制冷”到“智冷”的转变。