Microsoft “mergulha” DataCenter


Inspirados por Júlio Verne, os pesquisadores da Microsoft acreditam que o futuro dos data centers possa estar no fundo do mar.

A Microsoft testou o protótipo de uma central autônoma de processamento de dados capaz de operar centenas de metros abaixo da superfície do oceano, eliminando um dos mais dispendiosos problemas que o setor de tecnologia enfrenta: o custo do ar-condicionado.

Os data centers atuais, que processam absolutamente todos os dados do setor de tecnologia, dos serviços de vídeo on-line às redes sociais, abrigam milhares de servidores que geram muito calor. E quando o calor é demais, os servidores caem.

Colocar todo esse equipamento sob a água gélida do oceano poderia resolver esse problema. Também poderia atender às demandas de energia do mundo da computação, que crescem exponencialmente, porque a Microsoft está considerando combinar o sistema a uma turbina ou a um módulo que aproveita a energia das marés para gerar a eletricidade necessária ao funcionamento do data center.

Esse esforço, batizado de Project Natick, pode levar à colocação de gigantescos tubos de aço conectados por cabos de fibra óptica no leito do oceano. Outra possibilidade seria posicionar cápsulas metálicas cilíndricas em suspensão abaixo da superfície do mar, para capturar as correntes oceânicas com turbinas que geram eletricidade.

“Quando ouvi falar do projeto pela primeira vez, o que pensei foi por que alguém misturaria água e eletricidade”, disse Ben Cutler, um projetista de computadores da Microsoft que participa do desenvolvimento do Project Natick. “Mas ao pensar melhor sobre o assunto, você percebe que faz muito sentido.”

EMPECILHOS

Uma ideia radical como essa poderia encontrar obstáculos, entre os quais preocupações ambientais e questões técnicas imprevistas. Mas os pesquisadores da Microsoft afirmam que a produção em massa das cápsulas poderia encurtar o prazo necessário para colocar novos data centers em operação, dos dois anos necessários hoje para instalar uma central de processamento de dados em terra para apenas 90 dias, o que ofereceria imensa vantagem de custo.

Os recipientes contendo servidores submarinos também poderiam ajudar a fazer com que os serviços de web operem mais rápido. Boa parte da população do planeta vive em centros urbanos perto do oceano, mas bem distante dos data centers, em geral construídos em áreas distantes e com muito espaço disponível.

A capacidade de posicionar poder de computação perto dos usuários reduziria a latência, ou seja, a espera que as pessoas encaram para receber dados ou acessar serviços, o que é uma questão importante para os usuários da web.

“Por anos, os principais prestadores de serviços de computação em nuvem vêm buscando locais para data centers em todo o mundo que não só permitam usar energia de um modo mais ecológico como também tornem viável aproveitar o meio ambiente”, disse Larry Smarr, físico e especialista em computação científica que é diretor do Instituto Califórnia de Telecomunicações e Tecnologia da Informação, na Universidade da Califórnia em San Diego.

Com o lançamento de tecnologias diversificadas do entretenimento digital e a rápida chegada da “internet das coisas”, a demanda por computação centralizada vem crescendo exponencialmente. A Microsoft administra mais de cem data centers em todo o mundo, e continua a construir novas centrais em ritmo acelerado. A empresa já investiu mais de US$ 15 bilhões em um sistema mundial de data centers que agora responde pelo fornecimento de mais de 200 serviços on-line.

Em 2014, engenheiros de uma divisão da Microsoft Research conhecida como Novas Experiências e Tecnologias (NExT) começaram a pensar sobre uma nova abordagem que permitiria acelerar muito o processo de ampliação da potência dos sistemas de computação em nuvem.

MEMÓRIA

“Quando você pega o seu smartphone, pensa que está usando um computador pequeno e miraculoso, mas na verdade está usando mais de cem computadores diferentes localizados nessa coisa conhecida como a nuvem”, disse Peter Lee, vice-presidente da Microsoft Research e da NExT. “E quando você multiplica isso por bilhões de pessoas, o resultado é um volume espantoso de trabalho de computação.”

A companhia recentemente concluiu um teste de 105 dias de duração com uma cápsula de aço de 2,40 metros de diâmetro posicionada 10 metros abaixo da superfície do oceano Pacífico na costa do centro da Califórnia, diante de San Luis Obispo. Controlado de escritórios na sede da Microsoft em Redmond, o teste se provou mais bem-sucedido do que os pesquisadores antecipavam.

Os pesquisadores estavam preocupados com defeitos no hardware e com a possibilidade de vazamentos. O sistema subaquático estava equipado com cem sensores diferentes para medir pressão, umidade, movimento e outras condições para compreender melhor como é operar em um ambiente ao qual é impossível enviar um técnico para consertar defeitos no meio da madrugada.

O sistema se manteve funcional. Isso levou os engenheiros a prolongar o prazo da experiência e até a operar nele projetos de processamento de dados comerciais do Azure, o sistema de computação em nuvem da Microsoft.

O grupo de pesquisa começou pelo projeto de um sistema subaquático que será três vezes maior que o do projeto experimental, e será construído em colaboração com uma empresa que desenvolva projetos de energia oceânica alternativa, ainda que a companhia em questão não tenha sido escolhida até agora. Os engenheiros da Microsoft disseram esperar que um novo teste aconteça no ano que vem, possivelmente perto da Flórida ou no norte da Europa, onde existem grandes projetos de energia oceânica em desenvolvimento.

O primeiro protótipo, que ganhou o carinhoso apelido “Leona Philpot” –uma personagem na série de videogames Halo, da Microsoft– foi recuperado e trazido para a sede da empresa, com o revestimento metálico parcialmente coberto de crustáceos.

Trata-se de um grande tubo de aço branco, recoberto de permutadores de calor, com os extremos selados por placas metálicas e grandes rebites. Dentro do tubo fica um rack de servidores, banhados em nitrogênio pressurizado a fim de remover eficientemente o calor dos chips de computação enquanto o sistema era testado no leito do mar.

 

Fonte:  natick.research.microsoft.com

 



Comentários