2023年7月11日发(作者:)
水冷 - 工作原理
一套水冷(液冷)散热系统必须具有以下部件:水冷块、循环液、水泵、管道和水箱或换热器。
水冷散热系统的组成
水冷块是一个内部留有水道的金属块,由铜或铝制成,与CPU接触并将吸收CPU的热量,所以这部分的作用与风冷的散热片的作用是相同的,不同之处就在于水冷块必须留有循环液通过的水道而且是完全密闭的,这样才能保证循环液不外漏而引起电器的短路。
循环液的作用与空气类似,但能吸收大量的热量而保持温度不会明显变化,如果液体是水,就是我们大家熟知的水冷系统了。
水泵的作用是推动循环液流动,这样吸收了CPU热量的液体就会从CPU上的水冷块中流出,而新的低温的循环液将继续吸收CPU的热量。
水管连接水泵、水冷块和水箱,其作用是让循环液在一个密闭的通道中循环流动而不外漏,这样才能让液冷散热系统正常工作。
水箱用来存储循环液,回流的循环液在这里释放掉CPU的热量,低温的循环液重新流入管道,如果CPU的发热功率较小,利用水箱内存储的大容量的循环液就能保证循环液温度不会有明显的上升,如果CPU功率很大,则需要加入换热器来帮助散发CPU的热量,这里的换热器就是一个类似散热片的东西,循环液将热量传递给具有超大表面积的散热片,散热片上的风扇则将流入空气的热量带走。
如果是小型密闭式的液冷系统,则可以省略开放式的水箱让液体在水泵、水冷块和换热器之间往返流动,避免循环液暴露在空气中而变质。
水冷 - 发展历史
说到CPU水冷那还要追溯到上个世纪,早在1998、1999年左右台湾就开始流行CPU水冷散热了,DIY利用自己的条件制作出各式各样的水冷系
统,但大多以开放式结构为主,在DIY看来,当时的CPU就已经是“发热量巨大”的怪物了。 大陆水冷制作相对要晚些,也大多集中在个人的制作水平上,曾经出现像杭州中裕的CoolMax等数款个人制作并销售的水冷产品,其中CoolMax水冷已经具备像样的包装和配套件,在宣传上也曾经有过动作,但由于市场响应有限,这些产品犹如过眼云烟,没有多长时间就从市场上彻底消失了。
到2003年,水冷又开始在大陆市场上活跃起来,其中以正规厂家中的澳柯玛和个人制作中的水冷王为主流,从市场推广和论坛宣传两个方面展开了水冷制作的新篇章。
新一代水冷与旧水冷相比原理并没有变化,但制作工艺却大幅度提升,大多注重全密闭式的设计,而且内地与港台个人DIY作品间的差别也越来越少,这与互联网的推广不无关系,上个世纪的水冷主要集中在少数能上网的发烧友中,随着网络的普及,越来越多的能人异士纷纷出现,行业范围远远跨越了电脑及其相关行业,精通于金属加工的朋友不胜枚举,制作这种水冷散热器更加方便,而且更加美观、实用、可靠,此外,越来越多的喜欢水冷的朋友可以在各个论坛中各抒己见,这样也推动了水冷工艺的进步,显然是互联网促进了水冷产品的进步,同时也为产品的推广奠定了基础。
随着显卡技术的快速发展,显卡上的GPU已经能够发出与CPU相当的热量,因此水冷已经不再局限在CPU了,显卡、北桥、硬盘的水冷也不断涌出,彻底让大家进入水冷的新世界。
Lumia950/Lumia950 XL全球首创的“水冷散热”模式
三星S7采用“水冷散热”
IBM水冷技术历史回顾
如今数据中心越来越追求高能效,降低运维成本和TCO,但是空调制冷成本却依旧高居不下,据统计,数据中心大约25%的能耗和碳排放量都是由制冷系统产生,如果能够降低空调制冷成本,数据中心运维成本将得以整体下降。水冷是数据中心散热的一个好办法,在水冷上,IBM进行了多年研究,其最早的水冷技术可以追溯到1966年,如今,IBM的背板换热器技术为Power System和System x用户带来了巨大的好处,能够为数据中心降低超过50%的空调需求。本文将带您回顾过去几十年中IBM的水冷技术。
1996:IBM开启水冷之旅 IBM首次在计算机上应用水冷要追溯到1966年,当时IBM推出了System/360 Model 91计算机,是当时速度最快、最强大的计算机。它主要为处理科学应用中的高速数据处理而设计,比如太空探索、理论天文学、亚原子物理学和全球气象预报。为了避免计算机过热,IBM设计了一个专门的水冷系统。
1980:芯片散热 IBM在1980年11月12日发布了IBM Model 3081 Processor
Complex主机系统,它包含了两项提高效能的特性,将能耗从68千瓦降低到23千瓦,并且内置了水冷技术,直接对芯片散热,效果大大超越了传统的空气散热。
1990:8款水冷主机 1990年,IBM推出了ES/9000家族主机系统,包含8个型号,330、340、500、580、620、720、820和900,全部采用水冷技术。
2006:全新水冷方法 在2006年伦敦召开的电源及冷却高峰论坛(Power and
Cooling Summit)上,IBM研究人员展示了用于提高计算机芯片冷却能力的最新结果,这是一种被称作“直接射流冲击”的全新水冷方法,在一个完全封闭的系统中将水直接喷射到芯片背部,再将水吸出。这是一套复杂的架构,采用了多组高达5万个细小喷嘴和树枝状返回结构。
2008:零排放数据中心 在2008年的CeBIT展会上,IBM展示了零排放数据中心,并公布正在开发智能的芯片水冷回路。相比传统的空气制冷数据中心,只能水冷回路不仅能降低40%的能耗,同时也能将余热再利用,比如用于家庭取暖。据报告,IBM首个原型系统已经能够将数据中心运营的四分之三能耗再利用。
2008:IBM首个水冷Unix服务器,Power 575 在2008年4月,IBM发布了Power 575服务器,包含14个服务器节点,水管穿过机架直接进入服务器,处理器散热器上包含了水冷铜座。
2009:水冷QPACE超级计算机Green500夺冠 2009年11月的Green500榜单上,由IBM为于利希研究中心、雷根斯堡大学和乌珀塔尔大学建造的三台同样的水冷QPACE超级计算机夺冠,成为世界上最具能效的超级计算机。
2010:IBM热水冷却超级计算机Aquasar 2010年7月,IBM为瑞士联邦理工学院建设了同类别首个热水冷却超级计算机Aquasar,标志着一个新的“能源感知”计算时代的到来。这套被称作Aquasar的系统相比同等的空气冷却系统能够节省40%能耗,碳排放量降低了85%。
2012:第一台商业热水冷却计算机SuperMUC 2012年6月,IBM表示为德国巴伐利亚科学院的莱布尼茨超级计算中心(LRZ)建设的SuperMUC超级计算机将采用革命性的温水冷却方式。系统的活动组件,如CPU和内存,可以直接用最高45摄氏度的温水进行散热,以削减系统的能耗。 2012年及以后:打开自来水 在温水和热水散热技术之后,IBM水冷技术还在继续创新。IBM在纽约波基普西实验室的研究人员开发出了一项新的技术,可以用自来水为计算机来散热,这样,数据中心不必再冷却水,直接采用自来水能够节省更多的能源和成本。
谷歌数据中心采用水冷技术
采用水冷服务器的主要好处是就近带走热量,可以有很高的节能效果,同时大大提高功率密度来缩小服务器的尺寸,减少风扇噪音,以及容易实现热能回收等等好处。基于这些好处,谷歌早在2006年之前就开始研究此技术,并于2009年得到其水冷服务器的专利。谷歌水冷服务器专利的主要技术特点是服务器主板两两成对安装在散热片的两个外侧,由散热片内流过温度较低的冷冻水来带走热量。其中高发热的元件,比如CPU和南北桥芯片组等靠近散热片内的冷冻水来安装,从而发出的热量被散热片内的冷冻水就近带走;而一些发热量不高的器件,比如内存和硬盘等则直接安装在稍远离三明治散热片中心的位置,部分案例中还有服务器风扇或电源风扇安装在某侧的服务器主板上,用于将内存和硬盘等的热量带走。
俄勒冈州达拉斯,进出谷歌数据中心的水管。蓝色管道供应冷水,红色管道送回温水,以进行冷却。
图2 谷歌水冷服务器侧视图
如图2是谷歌水冷服务器的侧视图,其中中间的三明治结构部分为水冷散热片114,散热片的上下表面分别安装了两个服务器主板112a和112b以及CPU、内存等发热元件。由铝锭加工压叠压而成的散热片114的内部有多个如122这样的冷冻水通孔,用于带走散热片吸收的服务器热量。散热片114的表面则根据服务器器件的发热程度还专门刻蚀出不同深浅的平台,用于安装发热量不同的器件,比如标识为116的CPU和标识为118的芯片组等高发热量器件,置于靠近冷冻水供水通道的平台,而标识为120的内存、标识为124网络和标识为130的低发热量器件则可置于稍远离冷冻水通道的平台,部分设计中标识为126的服务器风扇等还仍然会用于给服务器表面的器件散热,下面会更为详细介绍。
采用水冷服务器来散热有很多好处,比如发热量大的器件可以高效就近在本地很快被散热片冷却,而不像传统服务器发出的热量散发到机房级,需要通过机房级大风扇、冷水机组、大功率水泵等较高能耗的传统制冷方式来实现,还不用额外冷却机房级大空间环境内的空气等。由于采用了就近散热方式,冷冻水就可以不再采用传统的7/12度供水,而供水温度可以提升到21摄氏度以上,基本就不再需要冷水机组了,大大节能还可节省设备投资。同样服务器释放出来的发热量大大减少,气流循环的风扇126也仅仅可以以较低的速度运转,大大节省服务器风扇的能耗。
图3是谷歌水冷服务器的俯视图,主板201上有6个标识为202的CPU及标识为206的芯片组,中间横向虚线部分为多根内存阵列,以及冷通道侧的网络控制器208和网络RJ45接口214等。服务器的进风从右侧进入,流经内存及周边器件,然后被标识为204的服务器电源吸入,服务器电源的风扇203既作了电源的散热风扇,同时还兼做了服务器的气流循环风扇,进入服务器的风还可以被导风板205导入到风扇内,防止冷气流短路直通。 图3 谷歌水冷服务器的俯视图
图4(a)是服务器散热片114的内部结构图,包括302和304这样的冷冻水通孔,内部流经的冷媒除了普通冷冻水外,还可以是氟化剂、食用油、乙二醇、液氮等等非导电物质。冷冻水从靠近大发热量CPU侧的306口进入,带走大部分热量后,再从小发热量的内存等附近308口流出。实际应用中,服务器机架内的水泵及阀门等提供冷冻水给到每套服务器,比如机柜内的冷冻水配水竖管(类似供电的配电PDU),通过快速连接软管(类似于供电的电源线)以及每个服务器接入水阀门(类似于供电的空开)接到每套服务器的散热片内。冷冻水竖管上级还有配水单元及供水阀门(类似于供电的配电柜及上级空开)。图4(b)是散热片的更详细侧视图,可以看到散热片400表面上有三个不同的散热平台层,用于不同发热量的器件。散热片400实际由三层铝锭402、404和406压叠而成,其中中间层的404可以为导热好的金属材料,也可以采用导热不好的塑料材料等,甚至可以不用404层,直接由导热性好的402和406压叠而成。此外412作为冷冻水输入口,而414作为冷冻水流出孔。
图4散热片俯视图
图5是两个服务器机柜502a和502b的简化图,两层导轨的两套服务器之间的部分存在一定空隙,用于机柜级气流流通,这个气流循环由每套服务器上安装的风扇来带走。由于服务器上的大部分热量都被散热片内的冷冻水带走,风扇只用于循环内存和硬盘等低发热器件的部分散热气流,因此风扇运行转速很低功耗也很少。每个散热器表面的两个服务器上器件经过精心设计,以至于服务器密集堆叠部署时,相邻两套服务器上的器件也不会互相干涉。比如上一套服务器的底部主板上的器件不会和下一套服务器的顶部主板上的器件发生干涉。同时每套服务器顶部主板上的风扇可以巧妙地同时用于本服务器顶部主板以及上面一套服务器的底部主板上的器件散热,即一套服务器的风扇可以同时用于上下两个服务器主板的散热。此外,如前面所述,这里的服务器风扇可能会单独安装较大的散热风扇,但在谷歌的水冷服务器应用中,因为内存和硬盘等需要的散热功率不大,这些风扇很可能只是服务器电源内的散热风扇。通过这些电源风扇的运转以及导风板设计,将内存、硬盘等器件的热量带走,同时兼做服务器电源的散热,最后再送到热通道内降温。由于采用了双U高的大电源风扇,可以得到更大的风量,在降低了风扇转速和风扇能耗的同时,还可以大大降低机房的噪音,提供更好的现场人员工作环境,谷歌的机房也因为冷通道维护环境舒适和机房低噪声大空间等考虑和设计,也于前几年通过了OHS职业健康安全管理体系认证。
图5 谷歌水冷服务器机柜
如前面所述,除了被冷冻水带走的热量外,主板上内存硬盘等由电源风扇循环的热量,在热通道内被热通道顶部的制冷盘管重新制冷后,再被机房级的大风扇引导重新循环回服务器的冷通道侧以及现场人员操作通道内,最后被服务器吸入重新开始新一轮循环。通过适当控制机房级热通道内的服务器出风温度以及冷冻水供水温度,或者控制IT设备级的水冷服务器进水流量,以及服务器上气流循环的风扇转速,使得整个系统高效运转在最佳节能状态。
比如控制服务器的出风温度,将散发出来的热量有效控制在较小的热通道内,得到较高的置顶空调盘管的delta T温差,温差越大盘管热交换效率就更高。且热气流不会和冷气流混合,就近被冷却盘管散热,风扇的功耗也更低。同时通过盘管顶部的机房级循环大风扇将冷却后的空气重新循环回机房的冷通道内,整个机房环境作为大的冷通道,不仅提供一个凉爽的现场运维人员工作环境,同时还兼作为整个大冷池,用于众多服务器的风扇故障备份。
图6是机房某个剖面示意图,如前面介绍,整个机房环境是个大的冷通道,用于如下图515的工作人员操作空间,兼做服务器的进风侧,实际图6右侧机柜的右边也是有类似冷通道用于服务器的进风,这里没画出来。两排机柜间的通道516作为热通道,用于汇集两侧所有服务器发出的热量(当然主要发热部分由服务器内部散热片内的冷冻水带走),热通道顶部安装着标识为514的置顶盘管,由风扇512和盘管514将热通道516内的热量制冷后再释放到整个机房大环境冷通道内。虽然下图的512风扇没有和514盘管放在一起,专门做了个热吊顶510,实际在谷歌的很多案例中512风扇会直接安装在514盘管顶部,不再建设吊顶层来减少工程的复杂度。当然盘管514也可以不用直接安装在热通道的顶部,比如安装在机柜底部等,减少盘管漏水或者冷凝水等对服务器的运行风险,总之,可以灵活安装盘管和风扇的位置,满足不同的应用和风险需求。 图6 水冷服务器机房截面图
和谷歌的微模块技术一样,谷歌的水冷服务器机房沿用了地板下供水的方案,由于需要保持水冷服务器的水质,因此主要通过板式换热器528来隔离冷冻水内循环和冷却水外循环。513a和513b是机房级主供回水管路(类似于供电主母排),而515a和515b为机柜级配水供回水管路(类似于机柜供电PDU),524a和524b为到每个服务器的供回水支管(类似于电源线),非常类似供电系统的供电路径设计。其中524a和524b为快接软管,考虑服务器故障检修和搬迁等经常性维护操作,用于和服务器散热片的快速插接。整个管路上还有很多的阀门用于防止漏水,比如竖管上的球阀527和支管自动截至阀等。而流到每个服务器的冷冻水流量则由流量计525a和温度传感器525b来控制,比如当监测到服务器温度偏高的时候,可以加大水流量或者调低冷冻水供水温度等。
优势
因为减少了风扇的数量,所以也减少了风扇所产生的振动及噪音。
散热效果比风冷系统高出许多。
劣势
水冷散热器所需的用具非常庞大,占用了一定的空间。
价钱比风冷系统较高。
因为结构比风冷系统复杂,还多加了一级的工质,所以可靠性也较差。
发布者:admin,转转请注明出处:http://www.yc00.com/news/1689014410a195475.html
评论列表(0条)