为什么微软要把数据中心设在水下?数据中心制冷有多花钱?

最近微软在数据中心业务上有了个新的方向,就是把数据中心沉入海底:

该技术利用原本为潜艇研发的散热技术,利用海底的低水温来为数据中心散热。计划将来建成服务器农场,整个放置在水下以节约宝贵的电能:

微软为什么要这么做呢?这种技术能节约多少电能,也就是钱呢?我们今天就来详细了解一下。制冷能耗占比

到底制冷所消耗的能源有多花钱呢?我们先来看一下服务器机架的总拥有成本(TCO)。TCO可以帮助我们了解服务器在购买和使用中整体的使用成本,有助于了解整体的花销,而不是仅仅购买时的短暂的肉痛。TCO包括三个构成: 投资成本、运营成本和能源成本。

因为机架里面的服务器价格大不相同,我们刨去这部分的成本。据 IDC 统计,数据中心的平均使用年限为 9 年。然而 Gartner 的数据显示任何运营超过 7 年的设施都趋于陈旧。为了简化,假定使用年限为10年。一个典型的数据中心的TCO构成为:

可以看出,电力能耗成本占据所有成本的20%!是数据中心主要的成本。

这些电能都去哪里了呢?一个典型的服务器机架,能源消耗构成如下图:

能源消耗大约只有47%的部分进入了服务器(红框部分),这才是有效的能耗。而41%的部分被散热消耗掉了!

一个典型的数据中心能源和散热构成如下:

散热部分包括机架风扇,空调、泵机和散热塔。这些部分消耗的能源占据数据中心能源消耗的很大一部分,也在TCO中占据的很大的比重。

这里要提一下PUE。电能使用效率(PUE)是评价数据中心能源效率的指标,它的计算很简单:

PUE = 总体能耗 / IT设备能耗

我们可以看出,PUE 值越接近于 1,数据中心的能源效率越高。我们一起来计算一下上个例子中PUE的值。

PUE = 1/0.47 = 2.12

这个数据怎么样呢?我们来看一下2011到2014美国平均PUE是多少:

这个是厂家自己报告的,实际上Uptime Institute 于 2012 年对全美 1,100 家数据中心和其运营主管所做的调查显示,数据中心 PUE 平均值为 1.8-1.89。而其中,仍有高达 34% 的数据中心超过 2.0,技术不发达国家的数据中心的效率只会更低。我们这个2.12的数据代表了平均水平。

在这里Google做的比较好,它的PUE值相当低:

在我国,按照《“十三五”国家信息化规划》,到2018年,新建大型云计算数据中心PUE值不高于1.5;到2020年,形成具有国际竞争力的云计算和物联网产业体系,新建大型云计算数据中心PUE值不高于1.4。结论

制冷消耗的电力占据服务器电力消耗相当大的比重,进而也在数据中心TCO中占据很大部分。而微软将数据中心沉入海底,无疑会极大的降低制冷消耗的电力,降低PUE,从而为微软以及购买微软云服务等的客户节约金钱。

随着云计算、大数据等新兴技术趋势的发展,企业的IT基础设施建设也呈现飞速发展状态。服务器机柜不断增加,机房空间不断扩大,UPS电源、机房空调等相关设施不断增加投入,随之而来是能源利用效率低、耗电量大,电费支出超过基础设施建设成本。据统计,全球的数据中心每年消耗的电量占全球总电量的2%左右,调查显示能源消耗成本已占到IT行业运营成本的30%到50%。如何降低PUE,进而降低TCO,这也是包括微软外,所有服务器从业者的研究方向。我们可以期待,会有更多更有趣的花式降温方法!




    一个数据中心的成本中,电力成本占了20%左右,其中电力成本中的42%是用来散热的。因此,谷歌、facebook、IBM等科技巨头将数据中心建在了冰岛、芬兰等国家。微软为了减少数据中心的散热成本,尝试将数据中心建在水下。


    数据中心制冷有多花钱?

    根据IDC的统计,数据中心的平均使用年限是9年,一个数据中心的电力能耗成本占据了所有成本的20%。这些消耗的电能,大约有47%进入了服务器,是有效的能耗,而42%的被散热能耗消耗了。


    这里了解一个数值,PUE(电能使用效率)是评价数据中心能源消耗的指标,计算公式为:

    PUE=总体能耗/IT设备能耗

    可以看出,这个数值越接近1,能源效率越高。

    根据相关数据显示,我国新建的大型云计算数据中心的PUE值小于1.5。其中,制冷消耗的电力占据了服务器电力消耗相当大的比重。

    微软的水下数据中心

    微软的水下数据中心,由很多白色的钢桶组成,外表覆盖热交换器,内部是一个数据中心计算机架,里面加注了氮气。这种“海底胶囊”可以停留在海底长达5年的时间,期间不需要维护。

    还要一点,它可以从海水运动中收获电能,而且这种海底胶囊散发的热量也很少,不会影响到海洋环境。


    总之,随着云计算、大数据等新兴技术的发展,企业IT基础设施建设飞速发展,服务器机柜不断增加、机房动力系统、空调系统等设施不断增加,随之而来的时能源效率低,耗电量大,电费支出高等。如何能够降低PUE,是数据中心建设需要考虑的,相信未来会有更多的花式降温法。

如果觉得对你有帮助,可以多多点赞哦,也可以随手点个关注哦,谢谢。




数据中心和普通的电脑不同,发热量是十分巨大的,为了保证数据中心稳定运行,数据中心需要配置强大的散热系统,而散热系统需要耗费大量的电力。一个正常运行的数据中心,电力成本就要占到总成本的20%,而散热系统正常运行消耗的电力成本占到总耗电成本的40%左右,所以数据中心的散热成本是非常高昂的。而微软将数据中心设置在水下,可节省大量的电力成本,大幅提升数据中心的经济效益,另外减少了对于煤、石油、天然气等不可再生资源的消耗,更有利于环境的保护。




把数据中心放在北极!




应该把数据中心建 在高海拔地区,气温本身较低,另外散发的热量可以用来供暖或者沐浴




放到北极或者南极一年四季冰天雪地能散热




应该造个微软温泉洗澡堂




感谢您的阅读!

数据中心放在水下,似乎解决了散热问题,可是投资大,维护困难,微软是不是“搬起石头砸自己的脚”,最终得不偿失呢?

图源来自NYTimes:

早在2014年,微软就有此设想,2015年微软将服务器塞进了一个“圆柱体的胶囊”,在10米深的海水里,时间超过了大家的预期。

之所以放入海底,真的能够带来好处吗?

  1. 节省电费。因为在一般的服务器需要空调进行散热,海底就解决了耗电问题,不可能装更多的空调。
  2. 降温。因为在这款设备中,它是在胶囊里加入了压缩氮气,能把热量有效地散入海水,从而达到降温目的。

不可否认:维修成本,故障突击都会对于微软有不小的影响。

在2018年,微软将Northern Lsles数据中心投入到苏格兰奥克尼群岛,并且使用风能潮汐能以及太阳能解决用电问题。

而在服务器中通过使用散热管,注入海水,完成冷却效果。

现在我们对于微软的这台水下服务器的表现如何还是会比较期待的,毕竟这确实有助于微软开创全新的散热模式,虽然维护和外壳耐久度都会成为问题。

其实,国内大部分企业将数据中心放在了贵州,就是看重贵州的均衡气候和电力资源等等,所以散热和电力确实是一个数据中心的难点。




微软的海底数据中心就有点像谷歌在南极的数据中心,这些地处特殊地理环境的数据中心都有很多的优势,比如:

1、海底拥有足够大的发展空间和土地面积,在海底建设数据中心根本不用担心以往在陆地上建设数据中心遇到的种种问题。

2、节能节电,这应该是海底数据中心最大的优势,毕竟一座数据中心最大的运营成本就是电费,如果温度高还需要更多的散热空调产生的电费,但是在海底,不仅基础温度低,而且水冷散热也能大大降低数据中心的温度,所以把数据中心建在海底,对于微软的制冷成本可以大大降低,这也有利于客户。

3、运输成本低,海运是最廉价的运输方式,建设过程中物流成本较低。

4、很多人可能觉得海底数据中心维护起来很麻烦,还得潜水,但是实际上维护成本并没有想象的高,因为机房可以升出海面维护,并不需要潜水。

所以说,数据中心如今根本不需要在大城市或者发达地区建设,就像贵州大数据把机房放在山上,除了安全战略以外,海拔高的地方温度低,散热方便,而且还有便宜的水电可供使用,微软把数据中心放在海底也是处于类似的考虑,随着技术的不断成熟,未来在海底部署数据中心的公司也可能越来越多。




微软要在苏格兰奥克尼群岛附近沉没一个像集装箱一样大的数据中心,不仅需要廉价的电力,免费的散热设备,还需要接近世界一半人口的居住地。建在这里的最大希望是,能够有一个真正低温且成本便宜的数据中心,运行更频繁且发生故障的次数更少。

更节省资源

为服务器建造潜水艇听起来可能很昂贵,但是考虑到总体拥有成本,其中大部分是前期准备,管理微软研究项目的本·卡特勒在接受采访时对数据中心知识说。他说:“我们认为该结构可能比今天的数据中心更简单、更统一。虽然所有这些都仍然是假设的,但是最终期望实际上可能会有成本优势,更便宜。”

将计算机置于水下并不是什么新鲜事,不仅对于Microsoft而言。海洋科学家已经做了很长时间了,但是还没有大规模地这样做。海洋工业在建造大型结构,冷却船舶发动机以及处理在水下表面堆积的藤壶方面具有丰富的经验。卡特勒说:“与人们几十年来在海洋中所做的事情相比,我们所做的事情相对温和。我们处于相对较浅的深度,而且这数据中心相对较小。”

供应链已基本到位

微软可以利用其硬件专业知识和供应链,用商品服务器填充水下数据中心。实际上,“ Northern Isles数据中心”中的12个机架,864个服务器和FPGA板是来自旱地上的Microsoft Azure数据中心。圆柱形外壳是由一家知名的海洋工程公司Naval Group制造的,如果这个想法得以流行和可实施,就可以批量生产和运输。

卡特勒说,时间框架和经济性与在陆地上建立数据中心大不相同。“不是建设项目,而是制造产品,它在工厂中制造,就像我们放入其中的计算机一样,现在我们使用标准的物流供应链将它们运送到任何地方。 然后还需要乘坐渡轮穿越英吉利海峡,穿越英国,再乘另一艘渡轮到奥克尼群岛,然后将其装在驳船上进行部署。

能够更快地部署不仅意味着更快地扩张,还意味着没有提前花钱。卡特勒说:“在某些情况下,我们需要18个月或2年的时间才能建立新的数据中心。想象一下,如果我只是将它们作为标准库存,那么我可以在90天内迅速将它们送到任何地方。现在资金成本有很大不同,因为不必像现在这样提前建造东西。只要我们处在这种模式下,我们的Web服务以及随之而来的数据中心都将呈指数级增长,那就是巨大的杠杆作用。”

停机也可以节省保修

在将所有服务器替换为新服务器之前,一次将数据中心停机5到10年与许多云服务器的生命周期没有太大区别,随着新硬件的出现,云服务器可能会重新用于不同的服务。五年的承诺意味着可以节省更多的预付款。

卡特勒指出:“如果还是维持旧的方案,保修成本可能很高。就我们而言,也许我们会把它退回给供应商,但这种维持不下去。”因为这些保修成本很高,每个组件供应商都必须保持所售组件的库存,以保证产品使用寿命。他解释说,英特尔可能每年都会推出一种新芯片,但是它必须保持五年来的库存。“就我们而言,一切麻烦都消失了。我们将其放到那里,我们就完成了任务。我们永远不会再找供应商说更换该磁盘驱动器,因为到了五年后,我们也不用管理这些东西。”

规模可大可小

尽管Orkney数据中心是单个模块,但Cutler设想将多个模块连接在一起以实现规模化,也许需要一个用于连接和配电的中央节点,将它们像常规数据中心中的机架排一样对待。容器间延迟将类似于大型数据中心网络中的延迟。一些较大的Azure数据中心相距一英里。

Microsoft数据中心中的每个机架顶交换机都连接到骨干交换机,这些骨干交换机在该行的所有机架上串扰。下一级,主干交换机彼此交叉连接。“这些东西之间可能有相当大的距离。如果我们在水中放很多,那就没什么不同了。”

在边缘部署中,单个模块可能是Azure Stack的理想选择,该Azure Stack可为越来越多地部署在海底的勘探石油和天然气钻井平台处理地震数据。

绿色资源潜力

一旦水下数据中心启动并运行,电力和冷却成本就会降低。Project Natick的第一个小得多的版本(Microsoft研究工作的代号)具有一个带有不同阀门的歧管,以使团队可以尝试不同的冷却策略。PUE为1.07(Microsoft最新一代数据中心的PUE为1.125)。据卡特勒估计,如果没有歧管,该成本将低至1.3。

另外,这一次没有外部热交换器。他说:“我们正在通过机架后部的热交换器将原海水吸入并再次排出。”他指出,这是用于冷却船舶和潜艇的相同技术。水流的速度应阻止藤壶的生长。该冷却系统可以应对非常高的功率密度,例如用于重型高性能计算和AI工作负载的装有GPU的服务器所需的功率密度。


北岛数据中心利用了欧洲海洋能源中心的潮汐发生器。Microsoft设想将海洋数据中心与这些离岸能源一起使用。但是未来的版本也可能拥有自己的发电能力。

“潮流是一种可靠的,可预测的东西;我们知道何时会发生。”卡特勒说。“想象一下,我们有潮汐能,我们有电池存储,因此您可以在整个24小时周期和整个月球周期内保持平稳行驶。”

代替备用发电机和装满电池的房间,Microsoft可以过量提供潮汐发电量以确保可靠性(例如,潮汐涡轮机由13台代替了10台)。“最终您会得到一个更简单的系统,该系统是完全可再生的,并且具有最小的占地面积。”

没有增加本地资源的负担

这种设备使用海洋供电和制冷的环境影响相对较小,这使得在更多地方部署数据中心变得更加容易。

现代数据中心的制冷更多地依靠水而不是电力。卡特勒解释说:“过去用于冷却的功率令人难以置信,随着时间的推移,我们已经能够将功率大幅降低。但是水被用来增强冷却效果。”

数据中心通常有一条通往城市供水的管道,这在发达国家的许多地方都可以,但在其他地方则没有。卡特勒和他的团队喜欢这样的想法:将数据中心带到发展中国家的某个地方,而不会对当地的水或电力供应施加任何限制。“对电力网没有压力,对供水没有压力,但是我们带来了更多的计算机资源。”

展开阅读全文

投稿时间:2020-10-26  最后更新:2020-11-20

标签:数据中心   微软   成本   卡特   海底   服务器   电力   水下   机架   消耗

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请联系我们,客服QQ:4156828  

© CopyRight 2008-2020 All Rights Reserved. Powered By www.Q578.com 闽ICP备11008920号

Top