充满前瞻性、革命性的特殊实验计划,其实不仅Google做得到,前日微软释出旗下进行超过半年的特殊计划Project Natick,希望把未来的运算资料中心,都转移到海平面底下。
我们每天使用的网络服务,背后很大占比都是靠好几座资料中心运作,来呈现前端的服务应用,包含影像串流、电子邮件、社群平台等,然而当运作过度、机器过热时,就可能发生当机、服务故障的状况,因此许多科技大厂每年其实花上大笔金钱在资料中心的冷气电费上。
电的来源,或许可以依靠全新替代能源,如风力、太阳能等发电以追求地球永续环境经营,但随着愈来愈多企业把基础架构转移到“云端”的同时,资料中心的需求却也不断创新高。
Project Natick 诞生于微软内部的创新激荡活动 ThinkWeek,提案者之一的詹姆士(Sean James),曾经服役于海军、在潜水艇环境下工作 3 年,他说,当他看到复杂结构的电子装置已经被带到海面下,阻挡盐水的侵蚀而正常运作,那为何不试试资料中心呢?深海的低温,有可能能够帮助资料中心的温度控制,进而减少能源消耗、降低成本。
这个破格思考的提案受到微软实验室 NExT 中,领导特殊计划的怀特克(Norm Whitaker)注意,不久之后,便开始着手进行测试。
资料中心在海平面下运作的概念,需要应用科学加上工程专业知识,但最大的挑战,其实在“人”。人的操作促使资料中心运作,但人却也占了一定的空间,更需要氧气、舒服的环境、灯光、工作换班等辅助条件。
种种考虑下,Project Natick 决定设计一个能够自我运作、维系运算条件的资料中心,不需要人力操作。2015 年 8 月,第一款 Project Natick 在美国加州中海岸,入海进行运作测试,由位在加州 Redmond 的微软工作人员,利用镜头与其他感应器,监控并收集温度、湿度、电力消耗等资料。虽然目前还在实验阶段,但是一切数据都指向正面回馈。
大海现象成发电新可能,海底资料中心传送速度也能比现在更快
以资料中心的温度来说,一般设在陆地上的资料中心都需要花上大笔金钱,来维持资料中心运作,但如果设在深海,深海的低温环境反而能够帮助维持温度,节省一定的营运成本。
一开始的实验模型选在海岸边不远之处,其团队也发现使用海浪、潮汐等能源做为运算能源的可能性,这有可能帮助创造不需外接电力,靠大海能源就能独立运作的资料中心。
此外,当资料中心离人们居住的环境愈近时,资料与资料传送的速度就能更快、减少延误状况发生。世界上相当多人口都居住离海边不远的地方,这个条件也可能让海底资料中心的概念,未来更加普及化。
现在,这个团队正在进行下一步阶段计划,打算放大规模,打造比现在大上 4 倍的容器,能提供 20 倍的运算能力;另外他们也在挑选一个新测试地点,打算引入大海的替代能源,希望这次一下水就能进行长达一年的测试。
(Source:YouTube)
- Microsoft research project puts cloud in ocean for the first time
- Microsoft Plumbs Ocean’s Depths to Test Underwater Data Center
- Why Microsoft’s crazy under-sea data center should terrify some tech professionals
(本文由 数位时代 授权转载)