加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 创业 > 正文

数据中心液体冷却技能的“机架经济学”

发布时间:2019-12-17 22:40:13 所属栏目:创业 来源:中国IDC圈
导读:副问题#e# 已往几年来,很大都据中回收了某种情势的液体冷却技能。另外,芯片制造商开始计划成果更强盛的焦点处理赏罚器,因为这些处理赏罚器功率越来越高,很难回收空冷技能举办有用冷却,回收液体冷却技能成为了更好的选择。 在差异规模,人们对液体冷却技能的认
副问题[/!--empirenews.page--]

已往几年来,很大都据中回收了某种情势的液体冷却技能。另外,芯片制造商开始计划成果更强盛的焦点处理赏罚器,因为这些处理赏罚器功率越来越高,很难回收空冷技能举办有用冷却,回收液体冷却技能成为了更好的选择。

在差异规模,人们对液体冷却技能的熟悉和乐趣明明加强,这是由各类应用和念头驱动的。50年前,液冷技能最初用于早期的大型机,而此刻开始与新的超等计较机和高机能计较(HPC)体系从头融合。尽量云云,IT装备回收的氛围冷却技能如故占有了大大都传统数据中心制冷的主导职位。然而,驱动企业和托管办法市场回收冷却技能的首要身分是成果、机能、本钱效益。

人们可以从初始前期投资(CapEx)、运营本钱(OpEx)和投资回报率(ROI)这几种差异的角度对待本钱效益。另外,对付数据中心办法和IT装备来说,这些身分的影响也不尽沟通。在此关头,尽量今朝数据中心办法在物理空间和电力容量方面都产生了变革,但风冷IT装备与数据中心计划和构建的团结已经相对成熟。相对付数据中心办法的IT装备指标齐集在机架数目和机架的功率密度上。对付给定命量的IT装备功率负载(必要几多空间和功率分派(每个机架的IT装备数目和巨细)来说,这最终成为一项经济决定。

譬喻在大型数据中心,每个机架的均匀功率5kW,并陈设了200个机架,而每个机架陈设数十个IT装备和PDU。假如装备陈设在托管数据中心中,则用户只必要为所需的空间和IT装备行使的电费付出用度。显然,假如每机架的功率为10kW,则机架和空间的数目可以镌汰50%,但总功率却是沟通的。这个比率显然被太过简化了,尚有很多其他身分(收集电缆和装备,以及存储体系和处事器/刀片处事器的功率密度范例)会影响这个比率低落的精确性。

尽量毫无疑问, IT装备功率密度均匀要求已经进步到可以满意机能要求,但从理论上讲,这应该必要较少的空间和每兆瓦的要害负载所需的机架数目。现实上,这种机架功率密度比会影响数据中心办法的成本支出和运营支出,以及IT装备全部者/用户,这就是为什么将其称为“机架经济学(rackonomics)”,这是Blade Network Technologies公司在2008年提出的观念。

9

现实上,很多老旧的数据中心办法(企业内部陈设数据中心或托管数据中心)每个机架功率有用地限定在5kW阁下,但较新的数据中心办法的计划为每个机架10至20 kW。

这如故不能确保完全实现更高的功率/空间比的最大甜头。这个比率假定全部机架现实上都已加载到靠近或处于最高功率程度,而在殽杂IT装备情形中凡是不是这种环境。在很多典范的企业方案中,每个机架的最大功率与最小功率之比为5:1到10:1,每个机架的最大功率僻静均功率之比也许为3:1到5:1。这些比率影响了机架经济学。

纵然在行使数千台1U处事器或刀片式处事器的超大型数据中心情形中,它们的均匀功率密度也很少到达或高出每机架10kW到15kW。这在必然水平上受限于电扇功率和散热本钱,跟着功率密度的增进(冷却体系和内部IT装备电扇),这些本钱每每会大幅增进。尽量超大局限数据中心运营商(托管数据中心和互联网云计较处事)制作了大型数据中心办法,但相对付电力和冷却基本办法本钱而言,大型构筑外壳本钱在成本支出中所占比例相对较低。

液体冷却方案首要齐集在更高的功率密度应用(譬喻每个机架25 kW、50 kW和100 kW)。可在氛围冷却办法中以最小的影响或无影响的方法举办陈设。譬喻,在每个机架50kW时,它只必要20个液冷IT装备机架来提供1MW的电力容量。在很多环境下,液冷IT装备不必要机器冷却和冷却水。这节减了冷水机组的成本支出和运营本钱,同时镌汰了80%的机架、PDU和相干装备的本钱。

好像呈现的题目之一是内排式、后门式或关闭式机柜液体冷却体系(用于尺度风冷IT体系)的本钱要比传统数据中心氛围冷却体系的本钱越发昂贵。尽量这在必然水平上是正确的,但管道本钱与将它们改装到运营数据中心的现有冷却体系中有关。确实,今朝液冷IT装备比其氛围冷却装备更昂贵。可是,其价值是受几个身分驱动的。第一个是数目,出格是陈设高功率的小容量水冷处事器的本钱,其功率密度凡是为每1U 为1到2 kW。

在此,基于CPU和内存的液冷散热器的液冷处事器开始改变机架经济学。像遐想这样的首要OEM厂商一向在提供更多具有液体冷却成果的高机能计较(HPC)处事器和刀片处事器产物。这些机架式处事器的机架可以或许以50至60 kW的功率运行。尽量今朝还没有直接的本钱竞争上风(部门是因为销量低),但机架经济学的比率开始变得越发明明。冷却运营本钱(OpEx)也可以施展浸染,由于它们可以行使温水(切合ASHRAE W4尺度)运行。

另一方面,开放计较项目(OCP)组织于2018年7月推出了高级冷却办理方案(ACS)子项目,重点存眷怎样行使液体冷却来进步冷却机能和能源服从以及低落本钱的硬件。

本年7月,Cerebras Systems公司推出晶圆级引擎(WSE)处理赏罚器,该公司这是有史以来其出产的局限最大的商用芯片,旨在办理深度进修计较题目。晶圆级引擎(WSE)将1.2万亿个晶体管封装在一个215 x 215毫米的芯片上,该芯片具有通过100Pbit/s互连毗连的40万个颠末人工智能优化的内核。晶圆级引擎(WSE)的最大功率为15kW,因此它必要回收液冷技能。

 

现实上,很难将相对的便利性与“机架和堆叠”相匹配,并为大大都风冷IT装备提供处事。另外,人们已经看到了用于风冷IT装备的冷却体系以及IT装备自己的庞大改造。可是,这种简朴性并不是溘然产生的。数据中心机关和机柜从从大型主机期间的从顶部到底部气流的前置、固态前端IT机柜成长到当今的热通道/冷通道机关,已经耗费了许多年。现实上,纵然到上世纪90年月后期,通用IT装备机柜也很少。

液体冷却体系具有多种情势,仍在不绝成长,而且具有很多技能上风。可是,因为尺寸等题目在供给商之间不能交流,这也阻碍了一些用户的购置和行使,而且也许无法敏捷接管变革。十多年前,当互联网巨头初次开始行使天然冷却技能时,传统的企业数据中心用户对此并不在意。

传统的数据中心耗费多年的时刻才逾越了ASHRAE的第一版“热指南”(2004年),该指南界说了最初的保举的68°F至77°F情形范畴。2011年,ASHRAE宣布了第三版的“热指南”,个中包括了直接在氛围中天然冷却信息。它还引入了“应承的”情形包络种别A1-A4,IT装备进气温度高达113°F。自2006年以来,很少有人知道ASHRAE推出的液体冷却指南。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读