阿里云王鹏:如果都采用浸没液冷技术,一年可节省上千亿度电-领酷资讯网
潮流
领酷资讯网

阿里云王鹏:如果都采用浸没液冷技术,一年可节省上千亿度电

发布
阿里云王鹏:如果都采用浸没液冷技术,一年可节省上千亿度电

C114讯6月7日消息(水易)当前,算力是支撑数字经济蓬勃发展的重要“底座”,企业的数字化转型,各行各业数字经济的落地都离不开算力,同时以生成式AI为代表的大模型对算力需求已超过摩尔定律增长。

而算力需求的持续增长,给碳达峰、碳中和目标带来一定压力,毕竟数据中心是能耗大户。这一背景下,发展“绿色计算”,建设低碳数字基础设施成为“减碳”新方向。

日前,由CIOE中国光博会与C114通信网联合推出的“2023中国光通信高质量发展论坛”系列活动之“数据中心光互连技术研讨会”在北京举办。阿里云计算有限公司技术专家王鹏介绍了绿色光互联技术方案探索与应用实践。

王鹏介绍,典型数据中心能耗构成中,IT设备功耗占比超过50%,其中网络设备能耗在IT设备能耗中占比约10%。网络设备中光模块能耗占比一般接近40%。

具体到光模块的功耗演进,可插拔光模块从10G演进到800G,模块功耗提升近26倍。从50GPAM4/lane光模块开始,电芯片DSP/CDRwithdriver功耗在可插拔光模块中的占比超过60%。

王鹏表示,目前业界对于绿色光互联技术探索主要从光模块功耗、网络架构设计,以及系统散热方案三方面入手。

降低光模块功耗方面,包括采用先进制程和工艺,降低电芯片DSP/CDR功耗,或是采用线性驱动LPO方案,取消电芯片DSP/CDR;或采用NPO、CPO等密集封装形态;或降低驱动电压、降低插入损耗,提高Laser电光效率和耦合效率等。

实际情况来看,采用先进制程DSP的功耗和工艺将会大幅降低芯片功耗,不过随着半导体制程逼近物理极限,功耗下降区间越来越小。其次,以800GDR8方案进行举例,不同的技术方案功耗上也会有差异,TFLN方案功耗略低于EML,EML方案功耗略低于SiPh;而采用LPO方案的DR和SR模块功耗分别降低至少35%~50%。最后,以单端口800G带宽为例,NPOswitch相比Pluggableswitch光互联功耗可以降低至少10%以上;而CPOswitch相比Pluggableswitch光互联功耗可以降低至少50%以上。

网络架构设计方面,采用小架构建设,降低光互联距离,用多模光模块代替单模光模块;采用高带宽交换芯片代替低带宽芯片堆叠;采用光交换代替电交换机。

实际情况来看,部分业务场景中,不追求极大规模集群建设,采用更经济的小集群建设,400G及以下速率采用多模光模块可以降低光互联功耗。以200G和400G网络架构为例,全部采用多模光模块相比单模光模块(同代产品)功耗分别下降至少30%和20%。

对单芯片交换机来说,芯片带宽翻倍,组网规模变为原来的六分之一,光模块总功耗下降至少65%。以51.2T交换芯片为例,单台51.2T交换机相比6台25.6T交换机,整机总功耗下降至少70%。另外,在传统数据中心网络中,若将Spine层电交换机替换为光交换开关(OpticalCircuitSwitch,简称OCS),总功耗可以降低至少40%以上。

系统散热方案方面,降低工作环境温度,可以降低系统功耗;采用浸没式液冷技术,使用浸没式液冷光模块。

王鹏表示,目前,阿里巴巴已自主完成100G和200G浸没式液冷光模块方案开发及部署,具备400G及更高速率方案开发能力。据了解,阿里单相全浸没式液冷能够实现全局冷却、高效换热,PUE值低至1.09。初步估算,如果全国的数据中心都采用浸没液冷技术,预计到2025年,一年可节省上千亿度电。

从阿里云的实践看,阿里巴巴张北云数据中心,是互联网行业第一个浸没式液冷生产集群,全局自然冷却,局部PUE可达1.04;阿里巴巴仁和液冷数据中心,是国内最大规模浸没式液冷生产集群,全中国首座绿色等级达5A的液冷数据中心,全球首座全年平均PUE1.09的绿色数据中心。

王鹏表示,面向未来,阿里云将携手产业各方共建生态,促进数据中心绿色转型。秉承技术驱动,倡导节能减排,让绿色光互联技术助力低碳绿色数据中心建设。

C114通信网水易


TAG:潮流 | 资讯 | 阿里云 | 2023中国光通信高质量发展论坛 | 阿里云最新消息 | 阿里云最新动态 | 数据中心光互连技术研讨会
文章链接:https://www.lk86.com/zixun/156530.html

声明:本页面内容源自互联网,不能用于任何商业服务,也不可作为任何信息依据,更无法构成专业建议,我们无法确保该内容的时效性、准确性和完整性,仅供读者参考。严禁使用和转载与分享该内容。本站对该信息不承担任何责任,内容和图片有误或涉及其他问题请及时与本站联系处理。
旅游