本文主要是介绍揭秘Facebook北极圈数据中心:降温效果杠杠的,日处理100亿条信息,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
它看起来就像一个外表不规则的飞船。走进内部,又像极了《银翼杀手》中的场景:一条一条狭长的走廊发出嗡嗡声,忙碌中的服务器不停闪烁蓝光,巨大的风扇高速运转。这里利用当地便宜的水电来运转,借室外的冷空气降温,这里修筑的围墙不是为了拦截间谍,而是用来拦麋鹿的。
欢迎来到Facebook在位于瑞典北部Lulea的一个数据中心--NodePole,它离北极圈仅一步之遥,处理着你发到Facebook上的任何自拍和任何一个点"赞"。
NodePole早在2013年已开始运行,最近陆续向一些媒体公开。NodePole藏身于一大片神秘的松林、湖泊和众群岛中间,由数以千计的矩形金属板组成,是Facebook首次在美国以外的地区开设数据中心,同时也是欧洲最大的数据中心之一。NodePole中心长300米宽100米,差不多四个足球场大。
Facebook每天处理来自全球的3.5亿张照片、45亿个"赞"和100亿条消息,这意味着Facebook需要为此配备难以置信的、巨大的技术基础设施。不管你在香港上传自拍、在巴黎更新个人状态,你的数据都会被存在Lulea,这个栖息着麋鹿和能看到北极光的地方。你要翻出一张2008年拍的照片,也靠这个中心的服务器做出应答。在瑞典建这个数据中心主要就是为了处理来自全世界惊人的数据量,按规律,每18个月产生的数据就会翻倍。
和多数互联网企业会直接去购买服务器不同,Facebook几年前就开始通过设计自己的系统和外包基建项目来建立自己的服务系统。以所有公开的标准来衡量,NodePole是目前为止能效最高的计算机设施。相对于传统服务器厂商的产品,这一项目开发的服务器硬件性能高38%,而运营费用则低24%。Lulea数据中心还是Facebook第一次使用来自自主"开放计算项目"的服务器硬件。
针对这些服务器,Facebook的工程师做了极大的简化,去除了许多典型的组件,如额外的内存插槽、电缆和塑料保护包装。服务器基本上就是一个简装和外露的主板,被放置在冰箱大小的机架上,这种设计的目的是让通风效果更好。基于这种服务器架构的系统需要的冷却也更少。
这里冬天平均气温差不多零下20度,外界的冷空气被泵进中心大楼内,服务器产生的大量热空气和进来的冷空气循环交换,形成自然冷却的过程。
大量风扇维持着室温的恒定
Facebook选择这里的另外一个原因就是看上这里的供电。大约一个世纪之前,瑞典为帮助国内的钢铁、造纸等工业发展修建了水电大坝,但随着部分产业的衰落,这里的电用不完了。Facebook数据中心就利用了这些富余的电能。负责该数据中心运营TomFurlong所说,Facebook在节能环保上已经下了很大功夫,目标是到2018年,所有数据中心50%靠清洁能源和可再生能源运行。甚至有人脑洞大开,设想把多余的热能输送给游泳池,Furlong也承认Facebook确实考虑过这个点子,但发现这样做并不经济。
中心内部混搭了瑞典和加州风格。中央是一个六边形的雪花和Facebook的Logo;前台墙上挂着彩色的麋鹿图案油画;涂鸦的蓝色Facebook占据了一整面墙体。不同的时钟显示着位于北卡、艾奥瓦以及俄勒冈其他几个数据中心的时间。包括Lulea在内,Facebook在美国已有四个大型数据中心,为了迎接下一个10亿用户,今年7月Facebook又宣布将在得克萨斯的FortWorth建第5座数据中心。
有传言,当初为了给遥远的Lulea招商引资,Lulea也做了很多工作。2009年MatzEngman作为代表飞到硅谷见了多位科技大佬,并在接下来的两年里基本过着和瑞典9小时时差的美西时间,进过多次谈判才最终落实了NodePole计划。为了保密,Engman甚至给Facebook数据中心项目取了代号:黄金工程。
Lulea也因是全世界最安全稳定的地方被大家知道。资料显示,瑞典最近一次战争发生在1814年,距今已有200多年;地震活动极少。
本文转自d1net(转载)
这篇关于揭秘Facebook北极圈数据中心:降温效果杠杠的,日处理100亿条信息的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!