MELHORES PRÁTICAS PARA CONSTRUÇÃO DE DATACENTES EFICIENTES DO PONTO DE VISTA ENERGÉTICO

Share Embed


Descrição do Produto

FACULDADE ESTÁCIO PARAÍBA CURSO SUPERIOR DE TECNOLOGIA EM REDES DE COMPUTADORES

RENAN DE MELO PORTO

MELHORES PRÁTICAS PARA CONSTRUÇÃO DE DATACENTERS EFICIENTES DO PONTO DE VISTA ENERGÉTICO

JOÃO PESSOA/PB NOVEMBRO/2014

RENAN DE MELO PORTO

MELHORES PRÁTICAS PARA CONSTRUÇÃO DE DATACENTERS EFICIENTES: DO PONTO DE VISTA ENERGÉTICO

Trabalho de conclusão de curso apresentado à Graduação em Tecnologia em Redes de Computadores da Faculdade de Tecnologia Estácio da Paraíba como pré-requisito parcial para obtenção do título de tecnólogo em Redes de Computadores. Orientador: Prof. Ms. Saulo Brito

JOÃO PESSOA/PB NOVEMBRO/2014

RENAN DE MELO PORTO

MELHORES PRÁTICAS PARA CONSTRUÇÃO DE DATACENTERS EFICIENTES DO PONTO DE VISTA ENERGÉTICO

Trabalho de conclusão de curso apresentado à Graduação em Tecnologia em Redes de Computadores da Faculdade de Tecnologia Estácio da Paraíba como pré-requisito parcial para obtenção do título de tecnólogo em Redes de Computadores. Aprovada em:__/__/____

BANCA EXAMINADORA

______________________________________ Prof. Ms. Saulo Brito Estácio de Sá

______________________________________ Prof. Paulo Montenegro Estácio de Sá

______________________________________ Prof. Vivianne Araújo Estácio de Sá

JOÃO PESSOA/PB NOVEMBRO/2014

AGRADECIMENTOS Ao Prof. Saulo Brito, braço amigo em todas as etapas deste trabalho. A minha família, pela confiança e motivação. Aos amigos e colegas, pela força e pela vibração em relação a esta jornada. Aos professores e colegas de curso, pois juntos trilhamos uma etapa importante de nossas vidas. A todos que, com boa intenção, colaboraram para a realização e finalização deste trabalho. Ao professor coordenador de TCC Sílvio Lucas, que sempre me incentivou a estudar mais para dar maior qualidade à minha monografia.

“A mente que se abre a uma idéia, jamais voltará ao seu tamanho original”. (Albert Einstein)

PORTO, Renan de Melo. Melhores práticas para a construção de datacenters eficientes do ponto de vista energético. Trabalho de Conclusão de Curso. Curso de Tecnologia em Redes de Computadores. Faculdade Estácio Paraíba, João Pessoa, 2014.

RESUMO O presente estudo foi construído com base nas técnicas e melhores práticas para reduzir o custo com energia e, assim diminuir o impacto ambiental por parte de empresas de datacenter. Com o crescente aumento com gastos de energia no mundo, elaborou-se aqui um guia de consumo inteligente de energia pode ser aplicado fim de tornar real as economias obtidas na utilização das técnicas e melhores práticas abordadas no trabalho. Os datacenters consomem energia em grande quantidade, e estes custos devem ser repensados. Empresas de datacenter de grande porte atuais visam a economia de energia como objetivo principal. Foi realizada uma pesquisa bibliográfica quantitativa de textos produzidos por unidades governamentais, com base na seleção de conteúdo de laboratórios de pesquisa nacional de energia renovável, empresas de tecnologia da informação e institutos de engenharia. Utilizouse como base para a formulação deste trabalho, o programa federal de gerenciamento de energia dos Estados Unidos da América, preparado pelo Laboratório Nacional de Energia Renovável (NREL), operado pela Aliança de Energia Sustentável, LLC. Os textos foram abordados de forma descritiva, formuladas em técnicas e hardware aconselhados para a melhor operação possível dos subsistemas. Utilizou-se em sua maioria, conteúdos obtidos no meio digital, visando a amplitude do conteúdo de pesquisa. Os custos com gastos energéticos vem aumentando a cada a dia e com isto foi necessário construir um guia de referência para o consumo inteligente desta. Os datacenters são compostos por vários subsistemas e estes possuem um gasto energético próprio e diferenciado. As técnicas e melhores práticas aplicadas para cada subsistema, tem como objetivo diminuir o impacto ambiental e a diminuição no consumo de energia, gerando economias.

Palavras-chave: Datacenters; Energia; Subsistemas; Economia; Técnicas;

PORTO, Renan de Melo. Melhores práticas para a construção de datacenters eficientes do ponto de vista energético. Trabalho de Conclusão de Curso. Curso de Tecnologia em Redes de Computadores. Faculdade Estácio Paraíba, João Pessoa, 2014.

ABSTRACT The title of this work was constructed based on techniques and best practices to reduce energy costs and thus reduce the environmental impact created by datacenter companies. With the growing increase in energy costs in the world, a guide can be applied for an intelligent use of energy, in order to make real cost savings in the use of techniques and best practices addressed in the work. Data centers consume large quantities of energy and these costs must be rethought. Current large-sized data centers companies aimed at energy savings as their main objective. A quantitative literature review was performed upon texts produced by government units, based on the selection of content from the national survey of renewable energy, information technology companies and laboratories and institutes of engineering. Was used as the basis for the formulation of this work, the federal program of energy management in the United States, prepared by the National Renewable Energy Laboratory (NREL), operated by the Alliance for Sustainable Energy, LLC. The texts were addressed descriptively formulated in technical and recommended hardware for optimum operation of all subsystems. Was mostly used content obtained in the digital media, aiming at the large pool of content search. The costs of energy consumption is increasing every day and it was necessary to build a reference guide for the intelligent use. Data centers are composed of several subsystems, and these have their own distinct and energy consumption. Techniques and best practices applied to each subsystem, aims to reduce the environmental impact and the reduction in energy consumption, generating savings.

Keywords: Data Centers; Energy; Subsystems; Savings; Techniques;

LISTA DE SIGLAS, ABREVIAÇÕES E SÍMBOLOS TI

Tecnologia da informação ..............................................................................

ASHRAE

American Society of Heating, Refrigerating and Air-Conditioning

01

Engineers ........................................................................................................

04

ER

Entrance Room ...............................................................................................

04

MDA

Main Distribution Area ................................................................................... 04

HDA

Horizontal Distribution Area ..........................................................................

EDA

Equipament Distribution Area ........................................................................ 04

ZDA

Zone Distribution Area ................................................................................... 04

UPS

Uninterruptible Power Supply ........................................................................

04

TIA

The Telecommunications Industry Association .............................................

05

IEEE

Instituto de Engenheiros Eletricistas e Eletrônicos ........................................

05

CPU

Central Processing Unit ..................................................................................

06

SAN

Storage Area Network ....................................................................................

07

NAS

Network Attached Storage .............................................................................

07

kWh

Kilowatt por hora ............................................................................................ 08

SSI

Server System Infrastructure ..........................................................................

09

NEBS

Network Equipment-Building System ...........................................................

10

Watts/m2

Watts por metro quadrado ..............................................................................

13

VSD

Variable Speed Drives ....................................................................................

16

CRAC

Computer Room Air Conditioning .................................................................

17

MWh

Miliwatt por hora ............................................................................................

25

kW

Kilowatt ..........................................................................................................

26

PDU

Power Distribution Unit .................................................................................

27

ERE

Energy Reuse Effectiveness ...........................................................................

31

PUE

Power Usage Effectiveness ............................................................................

32

DCiE

Data Center Infrastructure Efficiency ............................................................

32

RCI

Rack Cooling Index ........................................................................................

34

RTI

Returning Temperature Index ......................................................................... 34

HVAC

Heating, ventilation, and air conditioning ......................................................

36

kW/ton

Kilowatt por tonelada .....................................................................................

36

04

SUMÁRIO 1

INTRODUÇÃO......................................................................................................

2

ESTRUTURA E NORMATIZAÇÃO DOS DATACENTERS: DO

01

SURGIMENTO À GUIA ASHRAE E A CONFIABILIDADE DA TI ...........

03

2.1

SURGIMENTO DOS DATACENTERS ...............................................................

03

2.2

ESTRUTURA FÍSICA DOS DATACENTERS ....................................................

04

2.3

NORMATIZAÇÃO DOS DATACENTERS .........................................................

05

2.4

SISTEMAS DA TECNOLOGIA DA INFORMAÇÃO .........................................

05

2.4.1 Servidores eficientes .............................................................................................

05

2.4.2 Dispositivos de armazenamento ..........................................................................

07

2.4.3 Ativos de rede ........................................................................................................

07

2.4.4 Fontes de energia (Power supplies) .....................................................................

08

2.4.5 Consolidação e virtualização dos dados ..............................................................

09

2.4.6 Guia ASHRAE e a confiabilidade da TI .............................................................

10

3

MELHORIAS NO GERENCIAMENTO DO AR E CONTROLE DA UMIDADE NOS DATACENTERS ....................................................................

13

EMPREGO DE TÉCNICAS PARA O GERENCIAMENTO DO AR ..................

13

3.1.1 Controle e manuseio do cabeamento ...................................................................

13

3.1.2 Separação em corredores e contingência ............................................................

14

3.1.3 Otimização da entrada de ar nos equipamentos ................................................

16

3.1.4 Ajuste dos pontos chave de temperatura ............................................................

17

3.2

SISTEMAS DE REFRIGERAÇÃO .......................................................................

17

3.2.1 Sistemas de expansão direta ................................................................................

18

3.2.2 Gerenciadores do ar (Central e Modular) ..........................................................

19

3.2.3 Entrega do ar em baixa pressão ..........................................................................

21

3.2.4 Free Cooling ..........................................................................................................

21

3.1

3.3

ARMAZENAMENTO DO CALOR E CONTROLE DE UMIDADE ..................

22

3.3.1 Sistemas de refrigeração líquida .........................................................................

22

3.3.2 Controle da umidade nos datacenters .................................................................

23

4

4.1

MELHORIAS NOS SISTEMAS ELÉTRICOS E MÉTRICAS DE BENCHMARKING PARA EFICIÊNCIA ENERGÉTICA .............................

25

DISTRIBUIÇÃO DE ENERGIA NOS DATACENTERS ....................................

25

4.1.1 Resposta por demanda .........................................................................................

28

4.1.2 Utilização da corrente contínua ...........................................................................

28

4.2

ILUMINAÇÃO .......................................................................................................

29

4.3

GERAÇÃO E CO-GERAÇÃO DE ENERGIA ON-SITE .....................................

29

4.4

UTILIZAÇÃO DO CALOR RESIDUAL ..............................................................

30

4.5

MÉTRICAS E BENCHMARKING PARA A EFICIÊNCIA ENERGÉTICA ......

31

4.5.1 Índices de eficiência do consumo energético ......................................................

32

4.5.2 Índices de resfriamento dos racks e do retorno de temperatura .....................

34

4.5.3 Eficiência dos sistemas HVAC e do fluxo de ar .................................................

35

4.5.4 Eficiência dos sistemas de arrefecimento e ventilação ......................................

36

CONSIDERAÇÕES FINAIS .................................................................................

37

REFERÊNCIAS .....................................................................................................

38

1

INTRODUÇÃO Conforme Laboratório Nacional de Lawrence Berkeley, em um estudo recente, realizado pelo Departamento Nacional de Energia dos Estados Unidos da América, apontou que os Datacenters são os grandes consumidores de energia no mundo. Calcula-se que seja em torno de 1.1% a 1.5% do uso da energia consumida no mundo em 2010. O Departamento Nacional de Energia estimou também que estes Datacenters podem consumir entre 100 até 200 vezes mais que uma construção comum. Pensando neste cenário, surgiu a necessidade de desenvolver um novo design quanto à eficiência energética, ou seja, um guia que deverá endereçar todos os aspectos do consumo energético incluídos nos Datacenters, desde os ativos de TI, unidades de resfriamento, às configurações e infra-estrutura. Este guia provê uma visão geral das melhores práticas para o design energicamente eficiente em datacenters, que abrange as categorias dos sistemas da tecnologia da informação e suas condições ambientais, como o gerenciamento do ar, sistemas elétricos e de climatização, geração de energia e utilização do calor residual. A eficiência energética dos sistemas de TI e as condições ambientais devem estar presentes em primeiro lugar, porque as métricas utilizadas nestas áreas possuem um efeito cascata para gerar uma economia nas unidades secundárias, que serão utilizadas por sistemas elétricos e mecânicos. No guia há uma seção sobre métricas e valores de benchmarking, que um datacenter e seus sistemas podem ser avaliados. Nenhum guia sobre design ou projetos pode oferecer o modelo de datacenter "mais energicamente eficiente", mas o conteúdo que será descrito, segue e oferece sugestões que fornecem benefícios quanto á eficiência energética para uma variedade de cenários para construção e gerenciamento de um datacenter. Este trabalho teve como base uma pesquisa bibliográfica baseada nos seguintes documentos publicados por diversas Instituições/Laboratórios de Pesquisa e Entidades governamentais dentre elas destacamos: O programa federal de gerenciamento de Energia dos Estados Unidos da América, desenvolvido pelo Laboratório de Energia Renovável de Lawrence Berkeley, o Instituto de Refrigeração e Condicionamento de Ar dos Estados Unidos, o Instituto Rocky Mountain, o Programa Energy Star, e o The Green Grid. Diante disso, a aplicação das melhores práticas citadas neste trabalho, visam a economia referente ao consumo de energia em datacenters, como forma de alavancar o nível do serviço prestado pelas empresas de datacenters e uma consideração ao meio ambiente. Importante ressaltar que este estudo não tem a pretensão de esgotar essa

2

discussão, mas pretende contribuir com a diminuição dos gastos de energia em construções de datacenters, aplicando-se técnicas e métricas para a melhoria do consumo energético, entre vários aspectos do datacenter, como os sistemas de arrefecimento, climatização, elétricos e ventilação. Este trabalho apresenta-se estruturado da seguinte forma: No capítulo 1, apresenta a estrutura e normatização dos Datacenters: do surgimento à guia ASHRAE e a confiabilidade da TI. No capítulo 2 encontram-se as melhorias no gerenciamento do ar e controle da umidade nos datacenters. No capítulo 3, são expostas as melhorias nos sistemas elétricos e por fim, as métricas de benchmarking para medir eficiência energética nos datacenters.

3

2 ESTRUTURA E NORMATIZAÇÃO DOS DATACENTERS: DO SURGIMENTO À GUIA ASHRAE E A CONFIABILIDADE DA TI 2.1 SURGIMENTO DOS DATACENTERS

Na década de 1970, quando os sistemas Mainframe eram utilizados em grande escala o conceito de datacenter era muito conhecido como "Bureaux de Serviços". Os conceitos de datacenter surgiram em meados de Abril de 1964, através da disputa da liderança no mercado de TI entre IBM e empresas concorrentes. Com isto o projeto denominado 'System/360' da IBM, foi apresentado como forma de integrar grande quantidade de dados e processá-los de maneira organizada, afim de obter melhores resultados na obtenção de dados estatísticos, estes necessários para as organizações. Este mainframe por sua vez, combinava tecnologia microeletrônica, o que faria possível operar a velocidades medidas em bilhões de segundos, que avançaria significantemente os conceitos de organização computacional. (IBM Systems, 1964). As centrais de dados como também são chamados os datacenters, estão alocadas em um ambiente projetado minuciosamente para servidores e outros componentes como sistemas de armazenamento de dados, switches, roteadores e outros ativos de rede. Um datacenter é uma modalidade de serviço de valor agregado que oferece recursos de processamento e armazenamento de dados em larga escala, para que organizações de qualquer porte e mesmo profissionais liberais possam ter ao seu alcance uma estrutura de grande capacidade e flexibilidade, alta disponibilidade, segurança, e igualmente capacitada do ponto de vista de hardware e software para processar e armazenar informações (PINHEIRO, 2004). Assim nasceram os datacenters, com a função de garantir a disponibilidade de equipamentos que processam sistemas cruciais para manter a continuidade do negócio de uma organização. O principal objetivo de um projeto de datacenter é processar os aplicativos centrais do negócio e armazenar dados corporativos, oferecendo recursos de alta disponibilidade e meios de recuperação de desastres. Geralmente são projetados para serem extremamente seguros. Tem como papel principal, abrigar centenas ou milhares de servidores, equipamentos de rede, e processam grande quantidade de informação. (MARIN, 2011).

4

2.2 ESTRUTURA FÍSICA DOS DATACENTERS São construídos sob pisos elevados para possibilitar a passagem de cabos de dados e elétricos, possuem proteção contra acessos indevidos, unidades de refrigeração de alta capacidade, armários metálicos ou comumente chamados de racks onde são montados os equipamentos de rede,servidores e unidades de armazenamento. Geralmente os datacenters são divididos em áreas, como as seguintes citadas abaixo (BEZERA, Luís. 2013): Entrance Room (ER): Espaço de interconexão entre o cabeamento estruturado do e o cabeamento proveniente das operadoras de redes e telecomunicação. Main Distribution Area (MDA): Possui o cross-connect principal, que é um ponto principal de distribuição do cabeamento estruturado e é nesta área que se fazem as principais operações. Horizontal Distribution Area (HDA): Utilizada para a conexão com as áreas de equipamentos de TI e ativos de rede. Possui o cross-connect horizontal (HC), e equipamentos intermediários. Equipment Distribution Area (EDA): É o espaço destinado para os equipamentos terminais (Servidores, Storage, Racks, PDUs) e os equipamentos de comunicação de dados (Core Switches, Routers). Zone Distribution Area (ZDA): É o ponto de interconexão opcional do cabeamento horizontal. Permite uma maior flexibilidade no Data Center e está localizado entre o HDA e o EDA. (BEZERRA, 2013).

Estas estruturas também contam com sistemas para extinção de incêndios, com detecção de fumaça e a funcionalidade de exaurir gases inertes, para não afetar os equipamentos e os ativos de TI. O acesso é controlado por cartões eletrônicos e biometria, sob constante monitoramento. Os sistema de arrefecimento de alta capacidade e precisão são constantemente monitorados, para manter a temperatura no nível adequado. Os servidores e ativos também são monitorados permanentemente, em todos os aspectos, físicos e lógicos. (SMH SISTEMAS, 2005). A energia e o abastecimento dessa estrutura, além das concessionárias locais, utilizam-se grupos geradores de energia de grande capacidade e fontes redundantes de alimentação ininterrupta, comumente chamadas de UPS, montadas em salas anexas e paralelas, para manter os equipamentos e ativos de rede ligados a todo o momento, mesmo em caso de queda no fornecimento de energia (APC, 2003).

5

2.3 NORMATIZAÇÃO DOS DATACENTERS Os datacenters são projetados para atender a rigorosos padrões internacionais. A infraestrutura dele exige alta segurança física e lógica, asseguradas pelas tecnologias mais modernas do mercado. As normas da TIA (Telecommunications Industry Association) são as mais utilizadas, principalmente a norma TIA 942 que estabelece a classificação de segurança padrão TIER de 1 a 4. (PESCADOR, 2010) A norma TIA 942 da Associação das Indústrias de Telecomunicações (TIA) descreve os requisitos para a infraestrutura de um datacenter. O mais simples é um datacenter Tier1, que é composto basicamente de uma sala para alocar servidores, seguindo as diretrizes básicas para a instalação de sistemas de computadores. O nível mais complexo é um datacenter no padrão Tier4, que é projetado para hospedar e alocar sistemas computacionais de missão crítica, com os subsistemas totalmente redundantes e zonas de segurança compartimentadas, controladas por métodos de acesso biométrico e chaves de cartão magnético (IEEE, 2005). Outra consideração à ser observada, é a colocação do datacenter em um contexto ambiental para se adequar às exigências quanto ao consumo de energia e controle do calor, gerados pelos sistemas de arrefecimento.

2.4 SISTEMAS DA TECNOLOGIA DA INFORMAÇÃO

Em um típico datacenter que possui um sistema de arrefecimento altamente eficiente, o consumo de energia dos equipamentos de TI pode ser responsável por quase a metade do consumo geral de energia no datacenter. O uso de equipamentos de TI eficientes pode reduzir consideravelmente este consumo que, por consequência, diminuirá o tamanho dos equipamentos necessários para refrigerar os ativos de TI.

2.4.1 Servidores eficientes

Os servidores armazenados em racks tendem a ser um dos equipamentos de TI que mais consomem energia e assim, representam a maior porção do consumo energético em um datacenter. Os servidores podem ocupar quase todo o espaço do datacenter, porém são os carros-chefe de toda a operação. A maioria deles opera a 20% ou menos de sua capacidade, e mesmo assim, ainda chegam ao pico de utilização quando necessário. Recentemente várias

6

melhorias foram realizadas no sistema de refrigeração e nos processadores, para minimizar a energia desperdiçada. Quando se decide comprar novos servidores, é recomendado procurar por opções que incluam velocidades variáveis nos coolers para o resfriamento, ao invés de coolers padrões que somente funcionam em alta velocidade. Com a velocidade variável é possível entregar o resfriamento suficiente enquanto o cooler gira devagar, consumindo menos energia. O programa Energy Star auxilia os consumidores ao reconhecer os servidores altamente eficientes. Estes servidores que atingem tais requerimentos impostos pela Energy Star, serão em média, 30% mais eficientes que os servidores padrões (ENERGY STAR, 2014). Estes utilizam um dispositivo chamado throttle-down, que reduz o consumo de energia em processadores ociosos, assim quando um servidor está com baixa carga de processamento (20%), a energia reservada é apenas a necessária para aquele nível de carga. Às vezes é chamado ou referenciado como 'gerenciamento de energia'. Muitos departamentos de TI temem que desacelerando os servidores ou colocando os servidores ociosos para hibernar, irá impactar negativamente a confiança do sistema; entretanto, o hardware em questão, foi criado para agüentar milhares de operação de reset. A energia que alimenta estes servidores também podem seguir a estrutura de modulação, ao instalar softwares que fazem esta operação de reset nos servidores. Durante a baixa demanda, o software pode desligar os dispositivos do rack. Este gerenciamento de energia poderá potencialmente, conter riscos quanto à diminuição de velocidade e a possíveis falhas no sistema, que deverão ser pesadas contra a economia de energia (BRIGHT HUB, 2011). Os processadores de múltiplos núcleos permitem processamento simultâneo de múltiplas tarefas, o que leva a uma alta eficiência em dois caminhos. Primeiro, eles oferecem a performance com o mesmo consumo de energia e resfriamento, comparado com os processadores de um só núcleo. Segundo, eles consolidam dispositivos compartilhados em um núcleo do processador. Nota-se que nem todas as aplicações são capazes de tomar estas características como vantagem. Dado um nível de redundância, fontes integradas aos racks operam a um fator maior de utilização (cerca de 70%) comparadas as fontes individuais para cada servidor (cerca de 20 a 25%). Compartilhar outros recursos de TI, tais como a unidade central de processamento (CPU), discos rígidos e memória, também otimizam a utilização de energia. A utilização de energia a curto termo, combinada com os recursos de otimização com base na demanda, é outra estratégia para melhorar a eficiência energética do hardware a longo prazo. (NREL, 2011).

7

2.4.2 Dispositivos de armazenamento

O consumo de energia é aproximadamente linear ao número de módulos de armazenamento utilizado. A redundância de armazenamento precisa ser racionalizada e do tamanho certo para evitar o rápido crescimento em tamanho e consumo. Consolidar unidades de armazenamento dentro de uma unidade de rede anexada (NAS) ou em uma rede de armazenamento (SAN), são opções que armazenam os dados que não necessariamente precisam estar prontas para serem acessadas e transportam tais dados de forma offline. A ação de pegar os dados supérfluos que estão offline reduz o montante de dados no ambiente de produção, bem como todas as cópias. Assim, menos requisitos de armazenamento e processamento são necessários, o que corresponde diretamente na redução das necessidades de refrigeração e energia no datacenter. (NREL, 2011). Para os dados que não podem ser tratados offline, é recomendado o upgrade de métodos tradicionais de armazenamento para o thin provisioning. Em sistemas tradicionais de armazenamento, uma aplicação é alocada com uma capacidade antecipada de armazenamento, o que vez ou outra resulta em poucas taxas de utilização e energia desperdiçada. A tecnologia thin provisioning, em contraste, é um método de maximizar a utilização da capacidade de armazenamento, através de um conjunto comum de armazenamento compartilhado de arquivos, sob o pressuposto de que nem todos os usuários precisarão de todo o espaço ao mesmo tempo. Isto também permite que uma capacidade extra de armazenamento seja instalada mais adiante, assim que dados atingirem o limite da unidade. (TECH TARGET, 2012).

2.4.3 Ativos de rede

Na mesma condição em que as novas gerações de equipamentos de rede trazem maior vazão por unidade de energia, existem medidas de gerenciamento de energia implementadas que também podem ser aplicadas para a redução do consumo de energia com base na demanda da rede. Tais medidas incluem métodos de idle state logic, otimização do gatecount, algoritmos de acesso à memória e reduções dos buffers de entrada e saída. (NREL, 2011). Da mesma forma, quando há um pico de transmissão de dados e este continua a aumentar, mais energia é requisitada para transmitir pequenas quantidades de dados ao longo do tempo. A eficiência energética das redes Ethernet podem ser substancialmente melhoradas, ao trocar rapidamente a velocidade dos links das redes com base na quantidade de dados que estão sendo transmitidos. (LBNL, 2014).

8

2.4.4 Fontes de energia (Power supplies)

A maioria dos equipamentos de um datacenter utiliza uma fonte interna ou uma fonte montada no rack, que alterna entra AC/DC. Historicamente, (NREL, 2011), uma fonte de um rack padrão convertia a energia AC para DC em eficiências de 60% a 70%. Hoje, através do uso de componentes de alta qualidade e uso da engenharia avançada, é possível encontrar fontes com eficiências de até 95%. Usando-se estas fontes no design de infraestrutura, irá impactar positivamente nas contas de energia do datacenter e indiretamente, reduzindo o custo com sistemas de refrigeração e problemas de aquecimento nos racks. Operando-se a uma taxa de $0.12/kWh, podem ser alcançadas economias entre $2,000 a $6,000 por rack (10 kW a 25 kW, respectivamente), são realmente possíveis ao melhorar a eficiência das fontes de 75% a 85%. Estas economias incluem uma outra secundária, com o uso de fontes ininterruptas menores (UPS) e outra referentes as cargas do sistema de arrefecimento. (LBNL, 2010). O impacto de cargas reais em um ambiente de produção, também deve ser considerado ao escolher a fonte que vai oferecer a melhor eficiência no nível de carga que os servidores estarão acostumados a operar. O melhor nível de operação em fontes desta categoria, está no intervalo médio de sua curva de desempenho, que é em torno 40% a 60% , como podemos ver no Gráfico 1 abaixo (THE GREEN GRID, 2007). Gráfico 1 - Nível de eficiência baseado na variação de carga para fontes de energia.

Fonte: Quantitative Efficiency Analysis of Power Distribution Configurations for Data Centers, The Green Grid.

As fontes eficientes normalmente tem um custo incremental ao nível do servidor. São recomendadas fontes que atingem os guias de eficiência, e devem ser escolhidas as que possuem base na iniciativa do Server System Infrastructure (SSI). (EMERSON NETWORKS, 2010).

9

Há também vários programas de certificação que, atualmente padronizaram as eficiências das fontes, de modo que os vendedores possam vender melhor os seus produtos. Por exemplo, o programa 80 PLUS® oferece certificações para as fontes com eficiências de 80% ou maiores, à 20%, 50%, e 100% de suas taxas medidas com fatores reais de 0.9 ou maior. (80 PLUS®, 2007).

2.4.5 Consolidação e virtualização

A diminuição da energia necessária para alimentar coolers e sistemas de refrigeração mais eficientes pode ser alcançada quando equipamentos que possuem taxas de aquecimento, requisitos de temperaturas, e umidade semelhantes são agrupados juntos. O isolamento dos requisitos ambientais de temperatura e umidade permite aos sistemas de refrigeração serem controlados para o menor período de pico de utilização. (LBNL, 2010). Este conceito pode ser expandido para construções de datacenter em geral. Consolidar os espaços sem utilização, para um local centralizado, pode maneirar na utilização das medidas de eficiência do datacenter, ao considerar a implementação em apenas um local, ao invés de vários. A virtualização é o método de executar múltiplos sistemas operacionais virtuais, em um só computador. É uma forma de permitir que a quantidade total de processamento ocorra em poucos servidores virtuais, como forme de melhorar a utilização do servidor central. Ao invés de operar vários servidores a uma taxa pequena de utilização da CPU, a virtualização combina o poder de processamento em poucos servidores virtuais que operaram a uma taxa maior de utilização. Ela irá reduzir drasticamente o número de servidores em um datacenter, reduzindo a quantidade de energia necessária para a operação e os equipamentos de refrigeração necessários. Uma sobrecarga é necessária para implementar esta prática, mas isso é o mínimo comparado com as economias que podem ser atingidas a longo prazo. (INFOWESTER, 2013).

2.4.6 Guia ASHRAE e a confiabilidade da TI

O primeiro passo para o design de sistemas de refrigeração e gerenciamento do ar em um datacenter, é focar nas condições padrões de operação, estabelecidas pela American Society of Heating, Refrigerating and Air-Conditioning Engineers(ASHRAE) ou pela Network Equipment Building System (NEBS). Em 2008, a ASHRAE em colaboração com as empresas fabricantes de equipamentos de TI, expandiram o seu método recomendado sobre a entrada de ar nos equipamentos de TI. (NREL, 2011). A revisão deste método permitiu maior flexibilidade nas operações do datacenter e contribuiu para a redução em geral do consumo de energia. Os métodos expansíveis

10

recomendados e permitidos para a classe 1 e 2 de datacenters podem ser vistos na Gráfico 2 e na Quadro 1 a seguir. GRÁFICO 2 – Condições da umidadade do ar para a entrada dos equipamentos, recomendadas pela ASHRAE 2009.

FONTE: Rumsey Engineers.

QUADRO 1 - Condições de temperatura recomendadas e permitidas para a entrada de ar, para Datacenters de Classe 1 e 2

FONTE: Rumsey Engineers

É importante reconhecer a diferença entre o recomendado e o permitido nos métodos apresentados no guia fornecido pela ASHRAE. O método ambiental recomendado é aplicado aos operadores do datacenter na operação eficiente de energia, enquanto mantém a alta disponibilidade. Este método ultrapassa as barreiras testadas pelos fabricantes de equipamentos para a melhoria da funcionalidade e não a confiabilidade.

11

Outro fator importante a ser considerado, referente a temperatura desejável do ar de entrada dos servidores, é a velocidade variável dos coolers que geralmente é controlada com base no calor interno do servidor. Ao operar um datacenter, em condições acima do recomendado, referente a entrada de ar dos servidores, podem causar o aumento da velocidade dos coolers, e assim consumindo mais energia. Por exemplo, um relatório fornecido pelo LBNL (2010), na utilização de um servidor do tipo blade Dell PowerEdge, indicou que houve o aumento de 30% na velocidade dos coolers, quando a temperatura do ar aumentou de 77ºF para 91ºF. Este aumento na temperatura do ar de entrada, resultou em mais que o dobro da energia, necessária para alimentar o sistema de resfriamento, aplicando-se a lei da afinidade, onde energia dos coolers aumenta com a velocidade do cooler ao cubo. Sendo assim, a consequência de aumentar a temperatura do ar de entrada nos servidores deve ser medida contra a potencial economia no sistema de refrigeração do datacenter, que será abordado no capítulo seguinte.

12

3

MELHORIAS

NO GERENCIAMENTO DO AR E CONTROLE DA

UMIDADE NOS DATACENTERS

3.1 EMPREGO DE TÉCNICAS PARA O GERENCIAMENTO DO AR

O gerenciamento do ar para datacenters implica todo o design e detalhes da configuração que minimizam ou eliminam o mix entre o ar gelados, que alimenta os equipamentos, e o ar quente gerado pelos equipamentos. Uma implementação efetiva do gerenciamento do ar, minimiza o desvio de ar gelado ao redor das entradas de ar do rack e a recirculação do calor gerado de volta para as entradas do rack. Quando projetado corretamente pode reduzir os custos de operação, custo do investimento nos equipamentos, aumento da densidade energética no datacenter (Watts/m2), e redução das interrupções causadas por problemas de aquecimento. Um design exemplar inclui a configuração dos sistemas de entrada ar (gelado/quente), a localização de suprimentos e seus retornos, a maior escala de fluxo de ar da sala, e os pontos chave de temperatura do fluxo de ar. (NREL, 2011).

3.1.1 Controle e manuseio do cabeamento

As obstruções no piso e no teto, as vezes interferem na distribuição do ar frio no datacenter. Tais interferências podem reduzir significantemente o fluxo de ar como também afetar a distribuição do ar. O congestionamento de cabos nem pisos elevados pode claramente reduzir o fluxo de ar, como também, degradar a distribuição do fluxo de ar através de pisos perfurados. Ambos os efeitos promovem o surgimento de zonas quentes. A altura mínima recomendada, para a passagem destes cabos e outras instalações, deve ser de 24 polegadas do chão. Quando se tem uma boa organização, em alguns casos poderá ajudar no alcance de uma distribuição de pressão mais uniforme. (LARSEN L., HUFF L, 2008). Um datacenter deve possuir uma estratégia quanto ao manuseio do cabeamento, como forma de diminuir as obstruções do fluxo de ar, causados por cabeamento mal organizado. Esta estratégia deve focar em todo o fluxo de ar do corredor, incluindo as entradas de ar dos equipamentos de TI, que por sua vez, estão dentro dos racks, bem como a organização abaixo do piso elevado. (MARIN, 2011). O manuseio e gerenciamento proativo deste cabeamento, é um componente chave para manter um modelo efetivo quanto ao gerenciamento do ar. Instituir e aplicar uma

13

programa de cable mining como parte do gerenciamento dia-a-dia, irá otimizar a performance da entrega de ar frio nos sistemas de ventilação do datacenter. (LARSEN L. & HUFF L, 2008)

3.1.2 Separação em corredores e contingência

Uma configuração básica de corredores quente/frio é criada quando equipamentos de um rack, sistema de ventilação e de suprimentos de ar são projetados para prevenir a mistura entre calor gerado pelos racks e o ar frio que é distribuído acima deles. Como o nome implica, os equipamentos do datacenter são distribuídos em fileiras de racks, alternando o vento frio da entrada de ar e o vento quente do exaustor deles. Configurações rigorosas como esta, podem significantemente aumentar e melhorar a capacidade do sistema de resfriamento. (MARIN, 2011). Todos os equipamentos são instalados nos racks, para atingir um padrão no fluxo de ar front-to-back, que leva o ar condicionado para a entrada de ar dos equipamentos, e outra que leva embora para um ciclo de uso, o ar quente que sai dos exaustores deles. Os equipamentos que não possuem um padrão quanto a questões de resfriamento, devem ser abordados de alguma forma (paredes, muros, dutos, etc.), com o objetivo de alcançar o padrão de fluxo front-to-back. As fileiras dos racks são distribuídas de costas para as costas, e os furos que atravessam os racks, são tampados na parte de entrada de ar, para criar barreiras que de reduz a recirculação do ar, como mostrado abaixo na Figura 1.

FIGURA 1 - Exemplo de uma configuração de corredor ar quente/frio.

Fonte: Rumsey Engineers.

Além disso, as aberturas nos cabos em pisos elevados e tetos devem ser selados o mais firme possível. Assim, com o isolamento adequado, a temperatura do corredor quente já não mais impactará na temperatura das racks ou no funcionamento correto do datacenter; os

14

corredores quentes se tornam uma espécie de exaustores de calor. O sistema de refrigeração dos corredores é projetado para entregar ar frio exclusivamente nos corredores frios e puxar o ar dos corredores quentes. O ar quente que sai dos racks não é misturado com o ar frio do sistema de refrigeração, e ainda, pode ser direcionado para um duto que o captura através de vários pontos de coleta, retornando o ar quente, as vezes a 85ºF ou maior. Dependendo do tipo e da carga de um servidor, a temperatura em que o ar atravessa o servidor pode variar de 10ºF a mais de 40ºF. Mesmo assim, a temperatura do ar quente de retorno pode exceder 100ºF quando densamente populado com vários outros servidores a uma carga alta de utilização. As altas temperaturas de retorno estendem as horas de economia significantemente e permite a redução do volume de saída através de um algoritmo de controle, economizando a energia para o funcionamento dos coolers. Se a temperatura dos corredores quentes for alta o bastante, esta corrente de ar pode ser utilizada como fonte de calor em várias aplicações. (NREL, 2011). Além da economia de energia, os equipamentos que possuem maior densidade de potência também são melhores suportados por esta configuração. Isto aumentará consideravelmente a quantidade de horas de economia obtidas por utilizar a configuração de corredores ar quente/frio, que também vai aumentar a confiabilidade dos equipamentos em climas amenos, proporcionando a operação em emergência do datacenter, ao livrar a utilização de compressores, quando a temperatura do ar externo for menor que a maior temperatura de funcionamento dos equipamentos, que normalmente está entre 90ºF a 95ºF. (NREL, 2011). Ao utilizar barreiras plásticas flexíveis, como tampas de plástico de supermercado de refrigeração (cortinas de tiras), ou outras partes sólidas para selar o espaço entre o topo do rack e o retorno do ar, pode melhorar bastante o isolamento do corredor quente/frio, permitindo a flexibilidade no acesso, operação e manutenção do equipamento. Uma configuração recomendada para projeto, mostrada na Figura 2, entrega ar frio através de um plenário sob o piso para os racks; o ar passa através dos equipamentos do rack e então entra em uma área separada, semi-selada para o retorno do duto de ar quente. Esta abordagem utiliza um painel defletor ou barreira acima da parte superior dos racks e nas extremidades dos corredores quentes, para atenuar "curto-circuitos" (mistura de ar quente e frio). Essas mudanças devem reduzir os requisitos de energia dos coolers entre 20% a 25%, e pode resultar em uma economia de 20% de energia na seção fria do datacenter, aliado com o componentes de velocidade variável (VSDs). (LBNL, 2010).

Conforme estudo realizado pelo NREL (2011), as economias com o gasto energético por parte dos coolers, podem ser atingidas ao reduzir a velocidade dos coolers para fornecer somente o ar que o espaço do datacenter requer. Existem várias estratégias para

15

reduzir a velocidade dos coolers. Entre uma delas está uma malha de controle de velocidade, que controla a temperatura dos corredores frios, nos locais mais críticos - o topo dos racks para os sistemas sobre o piso elevado, a parte de baixo dos racks para sistemas overhead, fim dos corredores, etc. Nota-se também que várias expansões diretas (DX) dos ar condicionados para sala de computadores (CRAC), utilizam a temperatura do ar de retorno, para indicar a temperatura total do espaço, porém não é uma abordagem que não funciona na configuração de corredores quente/frio, que a temperatura do ar de saída é bem diferente do de entrada nos equipamentos. O controle da velocidade dos coolers, baseado na necessidade de funcionamento dos equipamento de TI, é crítico para alcançar tais economias. Infelizmente, a variação da velocidade dos coolers das unidades CRAC não está sempre disponível, apesar de ser uma característica comum em aparelhos de ar condicionados comerciais de expansão direta.

3.1.3 Otimização da entrada do ar nos equipamentos

Conforme afirma Marin (2011), as configurações de corredores ar quente/frio podem ser supridas por sistemas gerais de distribuição de ar ou sob o piso elevado. Quando um sistema de sobrecarga é referenciado, deve-se utilizar tomadas das fontes que despejam o ar diretamente para baixo, ao invés de utilizar difusores tradicionais que jogam o ar para o lado, o que resulta na indesejável mistura e recirculação do ar nos corredores quentes. Os difusores devem estar localizados diretamente na frente dos racks, acima do corredor frio. Em alguns casos, utilizam-se grades ou paineis abertos no dutos de ventilação do piso elevado, que ficam à frente dos equipamentos dos racks. O monitoramento para o controle de temperatura deve ficar localizado em áreas de frente para os equipamentos, não atrás deles. Como observamos na Figura 2 abaixo.

FIGURA 2 - Configuração de um corredor de ar quente/frio selado.

FONTE: Rumsey Engineers.

16

3.1.4 Ajuste dos pontos chave de temperatura

Em recente estudo realizado pelo NREL (2011), a utilização do volume de ar variável (VAV), permite o redimensionamento para o excesso de sua capacidade de funcionamento e ainda, proporcionar um funcionamento otimizado em condições de carga parcial, ao utilizar a velocidade variável dos coolers. Quando uma unidade que fica acima do rack estar para ser utilizada, ela deve ficar na parte central, acima da área de abrangência - a redução necessária na canalização deste ar vai diminuir custos e melhorar ligeiramente a eficiência. Também tenha em mente que a entrega de sobrecarga tende a reduzir a acamação da temperatura nos corredores de ar frio, comparados a entrega abaixo do piso. Isto pode criar uma pressão negativa localizada e induzir o ar de volta para o duto abaixo do piso. Sendo assim, os equipamentos que ficam perto do baixo fluxo das unidades CRAC, ou dos gerenciadores de ar CRAH, podem receber pouca ventilação, devido ao efeito de sobrecarga.

3.2 SISTEMAS DE REFRIGERAÇÃO

Ao iniciar o processos de projetos e seleção de equipamentos para os sistemas de climatização, é sempre importante considerar a carga inicial e futura, bem como partes em particular e condições de baixa carga, sabendo que os dados estão sempre em crescimento.

3.2.1 Sistemas de expansão direta (DX)

Os condicionadores de ar de expansão direta, comumente são o tipo de equipamento de refrigeração para datacenters pequenos. Estas unidades estão geralmente disponíveis como equipamentos não disponíveis em mostruários (comumente chamados de unidades CRAC). Existem, então, várias formas disponíveis para melhorar a eficiência energética dos sistemas de refrigeração quando se há o emprego das unidades de expansão direta. (LBNL, 2010). Unidades que ficam no topo da construção são baratas e estão amplamente disponíveis para o uso comercial. Vários fabricantes oferecem unidades com múltiplos e/ou compressores de velocidade variável, para melhorar a eficiência em algumas partes. Estas unidades rejeitam o calor do ambiente refrigerado para o ar externo, através de um condensador arrefecido a ar. Uma melhora neste condensador arrefecido a ar, é um dispositivo que borrifa água sobre as bobinas do condensador. O resfriamento evaporativo, fornecido pelo

17

spray de água melhora eficiência da rejeição de calor das unidades DX. Dependendo da zona climática do datacenter e do gerenciamento do ar, unidades DX que possuem um economizador acoplado, pode se tornar uma opção altamente eficiente para datacenters pequenos. Já as unidades CRAC estão disponíveis com poucas opções quanto à rejeição de calor. As unidades CRAC, arrefecidas a ar incluem um condensador remoto. Da mesma forma que as unidades do topo do datacenter, ao adicionar um dispositivo borrifador, pode melhorar a eficiências destas unidades. Para as zonas climáticas secas e de grande variedade de temperatura, é aplicado um controle paralelo do VSD, para baixar o consumo de energia dos coolers do condensador, comparado ao sistema padrão de ventilação. As unidades CRAC desenvolvidas com condensadores arrefecidos a água estão geralmente emparelhados com drycoolers do lado de fora da construção. A efetividade da rejeição de calor por parte destes drycoolers, depende da temperatura do ambiente. Uma bomba dágua condensadora distribui a água das unidades CRAC para os drycoolers. Comparando-se coma opção de condensadores arrefecidos a ar, este sistema a água requer uma bomba adicional e um sistema de troca de calor, entre o loop de refrigeração e o ar do ambiente. Como resultado, este tipo de sistema arrefecido a água é geralmente menos eficiente que a opção a ar. Um método muito mais eficiente deste sistema é o emprego de uma torre de arrefecimento. Para manter um ciclo fechado entre a água do condensador e o ar exterior, um sistema de torre de arrefecimento pode ser utilizado. Uma opção eficiente, porém mais cara, é utilizar uma torre de malha aberta de grandes dimensões e um sistema de troca de calor separado, onde este último pode ser utilizado para uma abordagem de clima frios (menos de 3ºF). Em climas secos, um sistema composto de unidades CRAC arrefecidos a água e torres de arrefecimento, pode se projetado para ser mais eficiente energeticamente do que os sistemas CRAC arrefecidos a ar. (LBNL, 2010). Um tipo de módulo economizador de água pode ser integrado nas unidades CRAC arrefecidas a água. Uma bobina de água de pré-arrefecimento pode ser adicionada a unidade CRAC, especificamente na seção do evaporador. Quando as condições do ambiente permitem que a água do condensador seja resfriada (seja por drycoolers ou por torres de arrefecimento), ao ponto que possa proporcionar um benefício direto do resfriamento do ar que entra nas unidades CRAC, a água do condensador é desviada para a bobina de pré-arrefecimento. Com isto, irá reduzir, eliminar, ou as vezes a necessidade de refrigeração à base de compressores das unidades CRAC. Alguns fabricantes oferecem esta bobina de pré-arrefecimento como uma opção padrão para suas unidades CRAC arrefecidas a água. (NREL, 2011).

18

3.2.2 Gerenciadores do ar (Central e Modular)

Conforme afirmado pelo LBNL (2010), uma performance vem sendo observada em sistemas de ventilação dos datacenters, que utiliza um design específico quanto aos gerenciadores de ar. Um sistema centralizado oferece várias vantagens em comparação com o sistema tradicional de unidades distribuídas, já que envolve uma aplicação fácil e prática (comumente chamada de unidade CRAH). Sistemas centralizados utilizam grandes motores e coolers que tendem a ser mais eficientes. Eles também são aplicáveis para operações de escala variável, através do uso de VSDs e da maximização da eficiência em escala parcial. No Gráfico 3 abaixo, podemos observar a distribuição do consumo de energia para dois datacenters. Ambos são grandes, com aproximadamente a mesma carga se tratando dos equipamentos, localizados em prédios adjacentes, e operados pela mesma empresa. O datacenter do lado esquerdo, utiliza um sistema baseado em múltiplas unidades CRAC distribuídas, enquanto que o da direita utiliza um sistema de gerenciamento do ar central. Um datacenter ideal iria utilizar 100% de sua eletricidade para operar os equipamentos, custo este de energia que é usada para o funcionamento dos coolers, compressores, sistemas elétricos que suportam a sobrecarga, é estritamente oneroso. GRÁFICO 3 – Comparativo entre sistema de ar central e distribuído.

FONTE: Rumsey Engineers.

Um datacenter suportado por um sistema de ar centralizado (à direita) utiliza quase 2/3 da energia de entrada para operar os a carga dos equipamentos do datacenter e fazer

19

com que a empresa possua lucro, comparado com o sistema distribuído (à esquerda), que utiliza mais de 1/3 para operar os equipamentos do cenário presente. A tendência vista aqui está sendo consistentemente suportada por dados estatísticos. Os dois métodos eficientes mais significantes são os equipamentos arrefecidos a água e sistemas de ar centralizados. Muitas das cargas dos datacenters não variam bem ao longo do dia, e o sistema de refrigeração tipicamente é bem maior do que o necessário. Um sistema de ar centralizado pode melhorar a eficiência ao utilizar um fundo de investimento para melhorar a eficiência de todo sistema de refrigeração. Os benefícios da manutenção de sistemas de ar centralizado são bem conhecidos. O impacto reduzido no meio ambiente e a manutenção do tráfego no datacenter são benefícios adicionais. A implementação de um módulo economizador nas unidades distribuídas pode ser simplificada com um sistema de ar centralizado. Os gerenciadores de ar otimizados, fornecidos com configuração de corredores ar quente/frio, podem ser melhorados ao implementar um sistema central de dutos. As unidades distribuídas são conhecidas por batalhar umas com as outras para manter a média de umidade. Em outras palavras, uma unidade pode ser observada por desumidificar, enquanto a unidade adjacente está umidificando. Ao invés de controlar todas as unidades distribuídas, um sistema central de controle, que por sua vez utiliza sensores e notas de temperaturas médias, permite uma melhor comunicação com os gerenciadores de ar do datacenter. (NREL, 2011).

3.2.3 Entrega do ar em baixa pressão

Um design de baixa pressão no quesito da entrega do ar (dutos grandes ou abaixo do piso) é essencial para otimizar a eficiência energética ao reduzir a energia dos coolers e a flexibilidade a longo tempo das construções. Os dutos devem ser os mais curtos possíveis em comprimento e o diâmetro suficientemente maior que os utilizados normalmente em escritórios, uma vez que o funcionamento 24h do datacenter aumenta o consumo de energia ao longo do tempo de utilização. (PGE, 2013).

3.2.4 Free Cooling

Como resultado de um estudo formulado por Marin (2011), a carga de resfriamento para um datacenter é independente da temperatura do ar externo. Muitas noites e durante o inverno, a opção mais barata para resfriar os datacenters é um economizador de ar, entretanto, deve ser realizada uma avaliação técnica adequada das condições climáticas, para

20

saber se este modelo é aplicável. Devido à umidade e aos problemas de contaminação associado com os datacenter, deve ser requerido um controle cuidadoso e um projeto trabalhoso para garantir que as economias com a refrigeração não serão perdidas por causa das exigências excessivas de umidificação e filtração. Os profissionais que trabalham em datacenters estão divididos quanto à percepção do risco ao utilizar esta estratégia. É uma prática padrão, e na indústria da telecomunicação, equipar as salas com economizadores nos sistema de gerenciamento do ar. Alguns centros baseados em TI, rotineiramente usam o ar externo sem maiores complicações, mas outros estão preocupados pela contaminação e controle ambiental nos os equipamentos de TI. Porém, estes economizadores de ar para o ar externo são implementados em vários datacenter e resultam em uma operação eficiente energeticamente. Enquanto o padrão ASHRAE 90.1 atualmente não requer a utilização de economizadores em datacenters, uma nova versão deste padrão irá certamente adicionar isto como um dos requerimentos. Algumas das autoridades da lei, como o Departamento de Planejamento e Desenvolvimento da cidade de Seattle, já obrigaram o uso de economizadores de ar no datacenters sob certas condições. (NREL, 2011).

Conforme citado pelo LBNL (2010), devem ser consideradas as estratégias de controle que lidam com variações de temperatura e umidade, ao longo das preocupações com a contaminação, sobre poluentes sólidos e gasosos. Para datacenters que possuem um controle ativo sobre a umidade, deve ser utilizado um esquema de travamento do ponto de orvalho (dewpoint), como parte da estratégia de controle dos economizadores de ar. Quando possível, as entradas de ar devem ficar localizadas na parte norte da construção, onde há significantemente menos impacto da luz solar, comparado o lado sul.

3.3 ARMAZENAMENTO DO CALOR E CONTROLE DE UMIDADE

Em pesquisa realizada por Marin (2011), o armazenamento do calor é o método de armazenar a energia térmica em um reservatório para uso futuro e é particularmente útil em estruturas com altas temperaturas. Pode resultar na economia de picos por demanda de energia e na melhoria da confiança do sistema de água gelada. Em condições que possuem zonas climáticas frias e secas à noite, torres de refrigeração podem carregar diretamente um tanque com água gelada; utilizando uma fração pequena de energia, outras vezes requerida pelos chillers. Um tanque de armazenamento de calor pode também ser uma alternativa econômica, como unidade refrigeradora adiciona como, por exemplo, um tanque de armazenamento de água provê benefícios adicionais para guardar água para as torres de refrigeração.

21

3.3.1 Sistemas de refrigeração líquida

O resfriamento direto à base de líquidos, refere-se a várias abordagens que compartilham a mesma característica de transferir o calor para o líquido ou a um local bem perto da geração de calor, ao invés de transferir o calor para uma sala e condicionar o ar. Uma abordagem recente para a implementação do resfriamento líquido, utiliza uma bobina instalada diretamente no rack, para capturar e remover o calor gerado por ele. (PGE, 2013). A área abaixo do piso elevado é geralmente utilizada para que as tubos de refrigeração possam ser conectados nas bobinas dos racks através de mangueiras flexíveis. Muitas outras abordagens estão disponíveis ou estão sendo procuradas, como a variação do arrefecimento da água nos dissipadores de calor, bem como o fluido dielétrico resfriado através da troca de calor. (PGE, 2013). O resfriamento líquido pode servir à altas densidades de calor e podem ser bem mais eficientes que a tradicional refrigeração a ar, já que o fluxo de água é um método mais eficiente no transporte de calor. Eficiências energéticas podem ser alcançadas quando estes sistemas, permitem o uso de um tanque de água gelada a uma temperatura média (55º F a 60ºF, ao invés de 44ºF) e por reduzir o tamanho e consumo por parte dos coolers. (NREL, 2011).

3.3.2 Controle da umidade nos datacenters

As técnicas de umidificação de baixa energia podem substituir os umidificadores tradicionais de resistência elétrica com uma abordagem isotérmica, aoutilizar o calor presente no ar ou o calor recuperado dos computadores para umidificação. Os umidificadores ultra sônicos, sistemas do tipo wetted media e micro droplet spray, são alguns exemplos de umidificadores isotérmicos. Um umidificador tradicional de resistência elétrica, requer em torno de 430 Watts para ferver aproximadamente 500ml de água (60 ºF), enquanto que um umidificador ultra sônico típico requer apenas 30 Watts para atomizar a mesma quantidade de água. Esta abordagem passiva de umidificação também resfria o ar, em contraste com os umidificadores de resistência elétrica que aquecem o ar, e com isto traz uma economia de energia ao reduzir a carga nos sistemas de climatização. (NREL, 2011).

Conforme estudo realizado pelo (LBNL, 2010), foram descobertas mais opções, que agora já estão disponíveis para a alocação dinâmica dos recursos de TI, conforme o processamento ou demanda por armazenamento variam. Dentro do framework da garantia do disponibilidade contínua, um sistema de controle deve ser programado para maximizar a eficiência energética dos sistemas de refrigeração sobre as condições variáveis do ambiente, bem como as cargas variáveis dos sistemas de TI.

22 A velocidade variável dos drives nas unidades CRAH e CRAC, permite a variação do fluxo de ar conforme a carga de resfriamento. Para instalações com piso elevado, a velocidade dos coolers deve ser controlada para manter um ponto médio da pressão abaixo do piso. Entretanto, a entrega do ar frio através dos mosaicos do piso elevado convencional, pode não ser adequada para responder à carga térmica dinâmica, sem ter que refrigerar excessivamente o espaço ou fazer com que algumas áreas fiquem com pouco índice de resfriamento. Os sistemas de entrega variável do ar são soluções bem melhores, por prover consistentemente o resfriamento quando e onde é preciso. A temperatura do fornecimento de ar e água gelada deve ser mantida a mais alta possível, enquanto se mantém a capacidade necessária para a refrigeração. (LBNL, 2010).

Os datacenters as vezes controlam demais a umidade (APC, 2011), o que resulta em poucos benefícios reais e no aumento da utilização de energia. Um controle rígido de umidade é uma prática utilizada nos antigos mainframes e sistemas de armazenamento em fitas, e geralmente podem ser relaxadas ou eliminadas para muitos lugares. O controle da umidade é freqüentemente não centralizado. Isto pode resultar em unidades adjacentes que abrangem o mesmo espaço, levando a uma briga para encontrar o ponto médio, enquanto uma está umidificando enquanto outra está desumidificando. A má localização e instalação dos sensores de umidificação também podem contribuir com os problemas de controle, se os sensores não forem bem calibrados. Uma consideração muito importante para a redução de umidades desnecessárias, é a operação de bobinas de resfriamento nos equipamentos que gerenciam o ar, e fazer com que esta operação seja realizada abaixo do ponto de orvalho (usualmente utilizando temperaturas abaixo de 50ºF na água), com isto, elimina-se a desumidificação desnecessária.

23

4 SISTEMAS ELÉTRICOS E MÉTRICAS DE BENCHMARKING PARA EFICIÊNCIA ENERGÉTICA

Da mesma forma que os sistemas de climatização operam, é importante considerar as carga iniciais, finais, parcial e pequenas, quando se projeta e seleciona os equipamentos para o sistema elétrico do datacenter.

4.1 DISTRIBUIÇÃO DE ENERGIA NOS DATACENTERS

Os datacenters possuem tipicamente um esquema para distribuição da energia elétrica (MARIN, Paulo Sérgio, 2011), que consistem no serviço de utilidade, switchboard, switchgear, fontes de energia alternada (ex. geradores), equipamentos para redundância (ex. múltiplos PDUs e UPS), e equipamentos de condicionamento auxiliares (ex. filtros de linha, banco de capacitores). Cada um destes componentes possuem uma saída de calor, que é ligada diretamente com a carga do datacenter. A eficiência destes, pode variar conforme os fabricantes e as variações de como o equipamento é projetado. Entretanto, a operação destas eficiências deve ser controlada e otimizada através da seleção minuciosa destes componentes. Os sistemas UPS provem uma energia de retaguarda para os datacenters, e podem ser baseados em bancos de bateria, máquinas rotativas, células de combustível, e outras tecnologias. Uma porção de toda a energia entregue para a UPS para operar os equipamentos do datacenter é perdida devido às ineficiências no sistema. O primeiro passo para minimizar tais perdas é avaliar qual o equipamento, se não todo o datacenter, que quer um sistema UPS. Por exemplo, uma porcentagem de processamento de TI requerida por um núclo de estudos científicos é bem menor do que a porcentagem requerida por uma instituição financeira (bancos). Ao aumentar a eficiência dos sistema UPS, é possível obter economias 24 horas por dia, ambos na utilização destes e indiretamente através da diminuição da carga térmica, reduzindo a perda dos transformadores. Entre os sistemas de conversão (o sistema mais usado em datacenters); o intervalo de eficiência em sistemas UPS, pode variar entre 86% a 95%. Quando a carga total do datacenter é alimentada por um sistema UPS, até uma pequena melhoria na eficiência pode levar a economias grandes ao longo do ano de utilização. Por exemplo, um datacenter com 15mil metros quadrados, com equipamentos operando a 100W/metro quadrado, requer 13.140 MWh de energia por ano. Se o sistema UPS está fornecendo a energia para o datacenter, a eficiência aumentou para 90% a 95%, com isto, a conta de energia será reduzida para 68.421 kWh, ou cerca de $90,000 dólares a $0.12/kWh, somado com as economias significativas do sistema de refrigeração da redução da carga térmica. Para sistemas UPS baseados em baterias, estes utilizam uma abordagem que mantém o o fator de carga o mais alto possível. Este procedimento geralmente requer a utilização de múltiplas unidades pequenas. (NREL, 2011).

24

Conforme estudo realizado pelo LBNL (2010), a redundância em particular requer uma atenção maior ao se projetar tais sistemas. Ao operar um sistema UPS grande em paralelo com 100% da capacidade em uma unidade UPS redundante (n+1), resulta-se em um fator de carga baixo na operação, ao máximo não mais que 50% da carga total. Considerando um sistema UPS dimensionado para duas unidades UPS com a redundância n+1, com ambas as unidades operando a um fator de 30% de carga. Se a mesma carga é distribuída entre três unidades pequenas (também dimensionadas para a redundância n+1), então estas unidades irão operar a um fator de 40% de carga. Este aumento de 10% no fator de carga pode resultar no aumento da eficiência de 1.2% (veja o Gráfico 4 a seguir). Para uma carga de 100kW, este aumento da eficiência pode resultar na economia de 13.000 kWh anualmente. GRÁFICO 4 – Curvatura da UPS com base na carga de trabalho e eficiência.

FONTE: Rumsey Engineers

É necessário avaliar a necessidade pelo condicionamento de energia. Os sistemas interativos de energia, provem o condicionamento para os servidores a uma alta eficiência, comparado os sistemas UPS de conversão dupla (APC, 2008). Alguns sistemas UPS tradicionais de conversão dupla (que oferecerem o mais alto degrau de condicionamento de energia), tem a capacidade de operar no modo de linha condicionado mais eficiente, geralmente anunciados como modo 'eco' ou 'econômico'.

25

Novas tecnologias atualmente estão sendo comprovadas no mercado, como os sistemas geradores rotativos a diesel (flywheel) que também devem ser considerados. Estes sistemas eliminam os problemas de substituição e disposição associados com os sistemas UPS convencionais, que utilizam baterias chumbo-ácido, os custos adicionais com a ventilação especial e as vezes, com os sistemas de condicionamento, que requerem que a temperatura seja mantida para garantir a vida útil das baterias. A PDU repassa a energia condicionada, que foi armazenada de uma UPS ou um gerador, para prover a distribuição de energia confiável para múltiplas partes dos equipamentos. Ela também é responsável por prover várias tomadas para ligar os servidores, equipamentos de rede e outros dispositivos eletrônicos que requerem energia condicionada ou corrente contínua. Ao manter uma alta tensão na fonte das linhas de energia, alimentadas por uma UPS ou gerador, permite que a PDU seja colocada e projetada mais centralmente no datacenter. Como resultado, o comprimento dos condutores da PDU para os equipamentos, é reduzido e menos energia é perdida em forma de calor. As PDU especiais que convertem alta tensão(208V AC ou 480V AC) em pequena tensão (120V AC), através de um transformador embutido para equipamentos de baixa tensão, também são comumente utilizados. Os transformadores perdem energia em forma de calor, quando a tensão está sendo convertida. Os parâmetros do transformador neste tipo de PDU, podem ser especificados de tal forma que a eficiência energética é otimizada. Um transformador do tipo dry com o aumento de temperatura de 176ºF, utiliza 13% a 21% menos energia que uma unidade que possui o aumento de 302ºF. A maior eficiência nas unidades que tiveram aumento de 176ºF, possui um custo inicial alto. Entretanto, o custo é geralmente recuperado nas economias de energia. Em adicção, muitos transformadores tendem a operar mais eficientemente, quando a carga está entre 20% a 50%. Ao selecionar uma PDU com um transformador a parte, a um fator de carga otimizado, isto irá reduzir a perda energia através deste transformador. A energia também pode ser economizada ao reduzir o número de PDUs que possuem transformadores integrados. (NREL, 2011).

Conforme abordado pelo (LBNL, 2010), seguem abaixo alguns guias sobre a entrega de energia elétrica, de maneira mais eficiente possível: • Minimize a resistência ao aumentar a seção cros secional da área de distribuição, tornando a menor possível. • Mantenha a tensão alta no maior tempo possível, para minimizar a corrente. • Utilizar transistores do tipo switch-mode para o condicionamento da energia. • Localizar todos os reguladores de tensão próximos a carga, para minimizar as perdas de distribuição com tensões mais baixas.

26

4.1.1 Resposta por demanda

A resposta à demanda se refere ao processo pelo qual os operadores das instalações coíbem voluntariamente a utilização de energia, durante os períodos em que haja pico de demanda (NREL, 2011). Muitos programas utilitários oferecem incentivos aos empresários que implementam essa prática em dias quentes de verão ou em outros períodos, quando a demanda de energia é alta e a oferta é pouca. Estes programas de reposta à demanda, podem ser executados através da redução de cargas, do sistema de gestão da construção ou, através da mudança para a geração de energia de retaguarda.Para reduzir as cargas de utilização quando um evento de resposta à demanda é anunciado, os operadores dos datacenters pode tomar certas medidas de redução, como o escurecimento de um terço da iluminação, ou desligar equipamentos ociosos dos escritório. Através de um sistema automatizado de construções de soluções para redes, este procedimento pode ser um processo simples, eficiente, barato, e tem sido conhecido por muitas empresas, para reduzir as cargas de pico de utilização durante eventos em mais de 14%. (LBNL, 2010).

4.1.2 Corrente contínua

Em um datacenter convencional, a energia é fornecida pela rede de alimentação de corrente alternada e é distribuída por toda a infra-estrutura do datacenter como corrente alternada. No entanto a maioria dos componentes elétricos dentro do datacenter, assim como as baterias que armazenam a energia de retaguarda no sistema UPS, precisam de corrente contínua para funcionarem. Como resultado, a corrente deve passar por várias conversões, resultando em perda de potência e desperdício de energia. Uma forma de reduzir a quantidade de vezes que a corrente deve ser convertida, é utilizar a distribuição de corrente alternada. Este procedimento ainda não se tornou uma prática comum e mesmo assim, pode trazer consigo custos de aquisição iniciais muito altos, mas já foi testado em diversas construções. (LBNL, 2010).

Um estudo realizado pelo LBNL (2007), comparou-se os benefícios da adoção de uma rede de distribuição de 380V de corrente contínua para um datacenter, a um sistema de distribuição de energia tradicional de 480V de corrente alternada. Os resultados mostraram que os datacenters que utilizaram o sistema de distribuição de corrente contínua, tiveram uma redução de 7% no consumo de energia, comparado com as construções que utilizaram o sistema de distribuição de energia tradicional. Outros sistemas de distribuição de energia de corrente contínua estão disponíveis, incluindo 575V DC e 48V DC. Estes sistemas também oferecem economia de energia.

27

4.2 ILUMINAÇÃO

Conforme estudo realizado pela APC (2003), os espaços de um datacenter não são ocupados uniformemente e, portanto, não necessitam de uma iluminação completa durante todas as horas do ano. As UPS, centros de distribuição de energia, e armazém de baterias, são exemplos de espaços que são pouco ocupados e visitados. Portanto, deve-se pensar na utilização de sensores, baseados na zona de ocupação das diversas áreas de um datacenter. A seleção cuidadosa de um layout de iluminação eficiente (por exemplo, acima dos corredores e não acima dos racks de servidores), lâmpadas e reatores também não irá somente reduzir o uso de energia elétrica de iluminação, mas também a carga sobre o sistema de climatização. Esta última leva a uma economia de energia secundária.

4.3 GERAÇÃO E CO-GERAÇÃO DE ENERGIA NO LOCAL

A combinação de uma carga elétrica praticamente constante e a necessidade de um grau elevado de confiabilidade, faz com que os grandes datacenters sejam adequados à prática de geração de energia no local (LBNL, 2010). Para reduzir os custos iniciais, os equipamentos do sistema de geração de energia de reserva devem ser trocados pelos equipamentos para a geração no local. Isto fornecerá uma alternativa para ambos o grid de energia e o desperdício de calor que podem ser utilizados para atender às necessidades de aquecimento próximas para resfriar o datacenter através de tecnologias de absorção de calor ou de resfriamento do vapor. Em algumas situações, o excedente e a capacidade redundante dos sistemas de geração de energia On-site, pode ser operado para vender a energia de volta para o grid, compensando o custo de capital do sistema de geração. Os sistemas de co-geração, também conhecidos como a combinação e calor e energia, envolvem o uso de um motor de calor ou central de energia, para produzir simultaneamente energia elétrica e calor útil. Nos datacenters é muito comum ver um gerador a diesel como a fonte de energia de reserva, que pode ser facilmente utilizada como um sistema de co-geração. O calor produzido pelo gerador, pode ser utilizado para executar um arrefecedor de absorção, que fornecerá a refrigeração do datacenter. Devido ao impacto ambiental, quanto a poluição do ar por parte dos gerados a diesel, o número de horas de funcionamento do gerador, podem ser limitados por regulamentos de qualidade do ar. (NREL, 2011).

Geradores de reserva são normalmente especificados com aquecedores de óleo, que utilizam a eletricidade para manter o sistema de modo de espera em todos os momentos. Estes aquecedores usam mais eletricidade do que o gerador de reserva nunca vai produzir. Conforme estudo realizado pela (APC, 2003), uma consideração cuidadosa de

28

configurações de redundância, devem ser seguidas para minimizar o número de geradores de reserva. Usando o calor residual do datacenter, pode minimizar as perdas por aquecedores de bloco. Os painéis solares podem ser considerados como uma fonte alternativa para o calor do bloco gerador. Outra estratégia em potencial é trabalhar com os fabricantes de geradores, para reduzir a produção de aquecedores do bloco, quando as condições permitirem.

4.4 UTILIZAÇÃO DO CALOR RESIDUAL

Em pesquisa realizada pelo LBNL (2010), o calor residual pode ser utilizado diretamente ou para fornecer a refrigeração requerida pelo datacenter, através do uso de chillers de absorção ou adsorção, reduzindo os custos com a energia necessária dos sistemas de água gelada, em até 50%. Quanto maior for a temperatura do ar e da água que saem do servidor, maior a oportunidade de utilizar este calor residual. O uso direto do calor residual para aplicações de baixa temperatura, como o preaquecimento da ventilação do ar para construções ou o aquecimento de água, pode prover as maiores economias possíveis. Os chillers que possuem a função de recuperar o calor, podem fornecer um meio eficiente para recuperar e reutilizar o calor dos ambientes de um datacenter. Os absorvedores utilizam o calor residual de baixa qualidade para comprimir termicamente o vapor frio, ao invés da compressão mecânica utilizada por chillers convencionais. Os chillers à base de brometo de lítio de fase única, são capazes de utilizar o calor residual de baixa qualidade, que podem ser recuperados a partir de opções de geração de energia on-site, incluindo microturbinas, células de combustível e motores a pistão de gás natural. Apesar dos chillers de absorção terem baixo coeficiente de performance (COP), em comparação com chillers mecânicos, eles utilizam o calor residual "livre" a partir de uma planta de geração para levá-los ao aumento da eficiência. (NREL, 2011).

O The Green Grid propôs e definiu uma métrica para medir os benefícios da reutilização de energia de um datacenter, chamado Energy Reuse Effectiveness (ERE). Uma tecnologia mais confiável termicamente e mais eficiente que adentrou para o mercado doméstico, é a utilização de chillers de adsorção. Um adsorvente é um sistema de refrigeração baseado em sílica gel dissecante, que utiliza o calor residual para regenerar o dissecante e as torres de refrigeração para dissipar o calor. O processo é semelhante ao de absorção, porém mais simples e por consequência, mais confiável. O sistema baseado em gel de sílica, utiliza a água como refrigerante e é capaz de utilizar menos calor residual, comparado com um chiller baseado em brometo de lítio. Os chillers de adsorção incluem melhores recursos automáticos se tratando da correspondência de carga para uma melhor eficiência em cargas parciais, em comparação com

29

os chilles de absorção. O adsorvente (sílica gel) não é corrosivo e exige bem menos manutenção e monitoramento, em comparação com o homólogo absorvente brometo de lítio corrosivo. Os chillers de adsorção, geralmente reiniciam mais fácil e rapidamente, comparardo com os de absorção. Estes chillers de adsorção têm sido produzidos a mais de 20 anos, mas somente recentemente foram introduzidos no mercado norte americano.

4.5 MÉTRICAS E BENCHMARKING

As métricas de eficiência energética e dados de benchmarking podem ser utilizados para rastrear a performance e identificar as possíveis oportunidades, para reduzir o gasto energético em datacenters. Para cada métrica listada nesta seção, os valores de benchmarking são providos como referência. Estes valores são baseados em um estudo de benchmarking de datacenters, criado pelo Laboratório Nacional Lawrence, de Berkley.

4.5.1 Índices de eficiência do consumo energético (PUE, DCiE e ERE)

O índice PUE ou eficiência do uso de energia elétrica do datacenter é definido como a carga total do datacenter dividida pela carga crítica de TI instalada no datacenter, como se pode ver a seguir.

Fonte: LBNL

Um datacenter médio possui um PUE de 2.0, entretanto, muitos datacenters altamente eficientes hoje em dia já conseguiram obter um PUE de 1.1 ou menor. O índice DCiE ou eficiência da infraestrutura do datacenter é definida como o total de energia gasta por todos os equipamentos do datacenter, dividido pela carga total do datacenter (THE GREEN GRID, 2007), que pode ser vista na equação abaixo:

Fonte: LBNL

30

É importante salientar que estes dois termos PUE e DCiE não definem a eficiência geral de todo o datacenter, mas apenas a eficiência do equipamento de TI dentro do datacenter. Essas métricas podem ser definidas alternativamente como unidades de potência média anual (kWh), ao invés do empate de potência instantânea (kW). O uso destas medições anuais, oferece a vantagem de contabilizar as economias de energia na utilização das técnicas de resfriamento livre (free cooling), bem como a tendência para cargas dinâmicas dos equipamentos de TI, devido as práticas de gerenciamento de energia. O PUE e DCiE são definidos com relação ao consumo de energia local. Outra definição alternativa poderia utilizar uma fonte de medição de energia, para explicar os diferentes usos de fontes de combustível. O programa Energy Star define uma métrica semelhante, definida com relação a energia da fonte, chamada de Source PUE. Segue abaixo uma breve explicação:

Fonte: LBNL

Como mencionado, as métricas citadas acima fornecem uma medida de eficiência da infra-estrutura do datacenter, em contraste com a eficiência global do datacenter. Várias organizações estão trabalhando no desenvolvimento de métricas de eficiência global, com um protocolo que tenha a função de suportar o trabalho útil produzido por um datacenter, por unidade de energia ou capacidade. Exemplos de tais métricas são as Data Center Productivity e Data Center Energy Productivity, propostas pelo The Green Grid e a Corporate Average Data Center Efficiency, proposta pelo Uptime Institute. O ERE é definido como a energia total para o funcionamento do datacenter, dividido pela energia total para alimentação dos equipamentos de TI. Segue abaixo a formula do cálculo do ERE:

FONTE: LBNL

31

Uma análise mais aprofundada das propriedades do PUE e ERE, traz um outro resultado importante (THE GREEN GRID, 2007). A gama de valores para a PUE é matematicamente delimitada entre 1,0 e o infinito. Um PUE de 1,0 significa que 100% da energia trazida para o datacenter, vai para os equipamentos de TI e nenhuma parte vai para a refrigeração, iluminação, ou outras cargas do tipo não-TI. Para o ERE, o intervalo é de 0 até o infinito. Um ERE de 0, significa que 100% da energia trazida para o datacenter, é reutilizada em outro lugar, fora do volume de controle do datacenter.

4.5.2 Índice de resfriamento dos racks (RCI) e índice do retorno de temperatura (RTI) O RCI mede como os racks de equipamentos são efetivamente refrigerados, de acordo com as diretrizes de equipamentos de temperatura do ar de entrada dos equipamentos de TI, estabelecidos pela ASHRAE/NEBS. Ao utilizar a diferença entre as temperaturas de entrada permitidas e recomendadas pela ASHRAE Classe 1 (2008), o limite máximo (RCIHI) e mínimos (RCILO) para o RCI são definidos da seguinte forma.

FONTE: LBNL

Onde: Tx = Temperatura média da entrada de ar do equipamento x n = Quantidade total do número de entradas

Um RCI de 100% representa condições ideais para o equipamento, sem temperaturas abaixo ou acima do permitido. Um RCI < 90% é considerado frequentemente como retrato de condições precárias. O RTI avalia o desempenho energético do sistema de gerenciamento do ar. Como podemos ver a seguir.

FONTE: LBNL

32

Onde: ∆TAHU = Queda de temperatura do gerenciador de ar (fluxo de ar ponderado). ∆TEQUIP = Aumento da temperatura dos equipamentos de TI (fluxo de ar ponderado).

Desvios de um RTI de 100% indicam o declínio do desempenho do sistema de gerenciamento do ar (THE GREEN GRID, 2007); mais de 100% sugere que haja a recirculação do ar, o que resulta em pontos quentes esporádicos e estes por sua vez, serem mais quentes do que a temperatura média do espaço, ao elevar a temperatura do ar de retorno; menos do que 100% sugere o by-pass do ar, onde o ar frio não contribui para o arrefecimento do equipamento de TI e retorna diretamente para o duto de ar, diminuindo a temperatura do ar de retorno. Portanto um RTI de 100% deve ser colocado como meta, para um sistema eficiente do gerenciamento do ar. Uma vez que o aumento da temperatura do ar em todos os equipamentos de TI, pode variar entre 10ºF a mais de 40ºF, o equipamento de delta-T (∆T) utilizado no cálculo da RTI, é uma média ponderada do fluxo de ar. Medindo-se um aumento de temperatura precisa em todos os equipamentos de TI de um datacenter, pode ser uma tarefa desafiadora e muitas vezes impraticável. Os parâmetros RCI e RTI permitem um método mais objetivo de medir o desempenho geral de sistema de gerenciamento do ar de um datacenter. Eles devem ser utilizados em conjunto para assegurar a melhor concepção possível. A diferença de temperatura de alimentação e retorno do ar, comumente referido como o "∆T do ar lateral", é utilizada como uma métrica para eficácia da administração do ar. O RTI é um indicador melhor para eficácia do gerenciamento do ar, pois explica as diferenças de temperatura nos servidores e nos gerenciadores o ar. No entanto, o ∆T do ar lateral, pode fornecer orientações adicionais em termos de quão fortemente um rack deve ser refrigerado. Isto é, quanto mais o rack for densamente populado, e maior for o ∆T dos equipamentos, pode-se conceber um design para um maior ∆T do ar lateral, para assim realizar economias na energia necessárias para os ventiladores. (THE GREEN GRID, 2007)

4.5.3 Eficiência dos sistemas HVAC e do fluxo de ar

Esta métrica é definida como a relação entre a energia utilizada anualmente pelos equipamentos de TI e a energia utilizada anualmente pelo sistema HVAC, como podemos ver a seguir.

FONTE: LBNL

33

Para um valor de consumo de energia fixo dos equipamentos de TI, um sistema de climatização de baixa eficiência, corresponde a um consumo de energia relativamente alto por parte do HVAC, com isto há um possível potencial para melhorar a eficiência do sistema de climatização (THE GREEN GRID, 2007). Uma baixa eficiência por parte do sistema HVAC, pode indicar que os sistemas do servidor são muito mais otimizados e eficientes, em comparação com o sistema de climatização. De acordo com o banco de dados de datacenters, pesquisados pelo LBNL, a eficácia do sistema HVAC pode variar de 0,6 até 3,5.

4.5.4 Eficiência dos sistemas de arrefecimento e climatização

Esta métrica caracteriza a eficiência global do fluxo de ar, em termos de potência total de ventilação desejada, por unidade de fluxo de ar (THE GREEN GRID, 2007). Esta métrica prevê uma medida geral de como eficientemente o ar é movido através do datacenter, a partir da oferta para o retorno, levando em conta o projeto de baixa pressão, bem como a eficiência do sistema de ventilação, como podemos ver a seguir.

FONTE: LBNL

Existem várias métricas que medem a eficiência de um sistema de climatização. A métrica mais comumente utilizada para medir a eficiência, é a relação entre o consumo médio de energia do sistema de arrefecimento (kW), com a carga média do datacenter (tons). A eficiência do sistema de arrefecimento de 0,8 kW/ton, é considerada uma boa prática, enquanto uma eficiência de 0,6 kW/ton é considerada como valor de referência. Segue abaixo:

FONTE: LBNL

34

5 CONSIDERAÇÕES FINAIS

Neste trabalho abordou-se o assunto de eficiência energética em datacenters, com base no estudo realizado pelo Departamento Nacional de Energia dos Estados Unidos da América, visando a redução do impacto ambiental e o aumento da economia geradas em todos os nívels do datacenter. As economias possuem um efeito cascata, portanto, todos os subsistemas abordados tiveram ganhos respectivos em sua utilização. Cumpriu-se todos os objetivos que tínhamos proposto, cujos foram apresentar um design moderno e eficiente de um datacenter, mostrar a evolução destes e apresentar um guia de melhores práticas para a construção com foco na eficiência energética. Este trabalho foi muito importante para a compreensão do funcionamento dos subsistemas de um datacenter. O aprofundamento deste tema, me permitiu compreender melhor as práticas e técnicas que um datacenter pode utilizar para a obtenção de economias e a redução do impacto ambiental. Além de permitir a desenvolver competências de investigação, organização e seleção do conteúdo abordado.

35

6 REFERÊNCIAS 80 PLUS®. 80 PLUS® Announces Platinum Level Certification for Data Center Servers, 2007. Disponível em: . Acesso em: 15 set. 2014. 80 PLUS®. Energy-Efficient Technology .Acesso em: 12 out. 2014.

Solutions.

Disponível

em:

ACEEE SUMMER STUDY ON ENERGY EFFICIENCY IN BUILDINGS. Best Practices for Data Centers: Lessons Learned from Benchmarking 22 Data Centers, 2006. AIR-CONDITIONING AND REFRIGERATION INSTITUTE. Water Chilling Packages Using the Vapor Compression Cycle, ARI STANDARD 550/590, 2003. APC. Humidification Strategies for Data Centers and Network Rooms, White Paper #58, 2011. Disponível em: . Acesso em: 16 set. 2014. APC. The Different Types of UPS Systems, 2003. Disponível em: . Acesso em: 8 set. 2014. ASHRAE DATACOM SERIES. Best Practices for Datacom Facility Energy Efficiency, 2008. Disponível em: . Acesso em: 11 out. 2014. ASHRAE DATACOM SERIES. Design Considerations for Datacom Equipment Centers, 2005. Disponível em: . Acesso em: 11 out. 2014. ASHRAE DATACOM SERIES. Thermal Guidelines for Data Processing Environments, 2009. ASHRAE DATACOM SERIES. Liquid Cooling Guidelines for Datacom Equipment Centers, 2006. ASHRAE MISSION CRITICAL FACILITIES TC9.9. Thermal Guidelines for Data Processing Environments, 2004. ASHRAE HVAC APPLICATIONS. Data Processing and Electronic Areas, cap 1, 2007. ASHRAE HVAC APPLICATIONS. Data Processing and Electronic Areas, cap 17, 2003. ASHRAE APPLICATIONS Optimization, cap 41, 2003.

HANDBOOK.

Supervisory Controls

Strategies and

36

ASHARE TRANSACTIONS. Airflow and Cooling Performance of Data Centers: Two Performance Metrics, Vol. 114, Part. 2, 2008. BEZERRA, Luís. Data Center e suas classificações TIER, 2013. Disponível em: . Acesso em: 6 set. 2014. BRIGH HUB. Energy Saving Strategies for Data Centers, 2011. Disponível em: . em: 10 set. 2014.

Acesso

DIFFEN.COM. Waste Heat Systems. Absorption vs. Adsorption Chillers. Disponível em: . Acesso em: 15 out. 2014. DIXON, GREGG. Demand Response for Today’s Data Centers, Focus Magazine: The International Data Center Design and Management Magazine, 2008. ECHELON CORP. Automatic Demand Response: Driving Energy Efficiency for Global Climate Change Using LonWorks® Control Networks. Disponível em: . Acesso em: 14 out. 2014. ECOS CONSULTING, EPRI SOLUTIONS, LBNL. High Performance Buildings: Data Centers Uninterruptible Power Supplies, 2005. ERNEST ORLANDO LAWRENCE BERKELEY NATIONAL LABORATORY. Best Practices Guide for Variable Speed Pumping in Data Centers, 2009. ENERGY INDUSTRIAL TECHNOLOGIES PROGRAM. Saving Energy in Data Centers. Disponível em: < http://www1.eere.energy.gov/industry/datacenters/index.html>. Acesso em: 11 out. 2014. ENERGY STAR. 12 Ways to Save Energy in the Data Center. Disponível em: . Acesso em: 10 set. 2014. ENERGY STAR. Program Requirements for Computer Servers, Version 1.0, 2009. ENERGY STAR. Hot Aisle/Cold Aisle Layout. Disponível em: . Acesso em: 16 out. 2014. EPRI. Efficiency of Power Supplies in the Active Mode. . Acesso em: 12 out. 2014.

Disponível

em:

FUJITSU GLOBAL SYSTEMS. Water-Cooled Prime Center LC Racks. Disponível em: . Acesso em: 15 out. 2014.

IBM ARCHIVES DATABASE. IBM Mainframe 360 review. Disponível em:

37

. Acesso em: 9 set. 2014. IBM SYSTEMS. IBM Heat eXchanger water cooled racks. Disponível em: . Acesso em: 14 out. 2014. IEEE. Optimal Power Allocation and Load Distribution for Multiple Heterogeneous Multicore Server Processors across Clouds and Data Centers, 2013. Disponível em: . Acesso em: 10 set. 2014. IEEE. Telecommunications Infrastructure Standard for Data Centers ANSI/TIA-942, 2005. Disponível em: < http://www.ieee802.org/3/hssg/public/nov06/diminico_01_1106.pdf>. Acesso em: 8 set. 2014. INFOWESTER. Conceitos de virtualização, 2013. Disponível em: . Acesso em: 15 set. 2014. KURKJIAN, Christopher and MCLELLAN, Doug. High-Density Server Cooling, Engineered Systems. Disponível em: . Acesso em: 12 out. 2014. LAKEN NETWORKS. Insfrastructure solutions based on ANSI/TIA-942-2005, 2013. Disponível em: . Acesso em: 8 set. 2014. LARSEN L. & HUFF L. Proper Cable Management Aids Data Center Cooling, 2008. Disponível em: . Acesso em: 16 set. 2014. LBNL. Best practices for data centers: Lessons learned from benchmarking 22 data centers, 2003. Disponível em: . Acesso em: 20 set. 2014. LBNL. Data Center Energy Management. Electrical Infrastructure. Disponível em: . Acesso em: 12 out. 2014. LBNL. High-Performance Buildings for High-Tech Industries Data Centers. Disponível em: . Acesso em: 3 out. 2014. LBNL. High-Performance for High-Tech Buildings. Data Center Energy Benchmarking Case Study, Facility Report 8, 2003. Disponível em: . Acesso em: 15 out. 2014. LBNL. Self Benchmarking Guide for Data Center Energy Performance Version 1.0, 2006. Disponível em: . Acesso em: 12 out, 2014.

38

LBNL. Self-Benchmarking Guide for High-Tech Buildings: Data Centers, 2014. Disponível em: . Acesso em: 14 out. 2014. MARIN, Paulo Sérgio. Data Centers - Desvendando cada passo: conceitos, projeto, infraestrutura física e eficiência energética. São Paulo: Érica, 2011 NATIONAL RENEWABLE ENERGY LABORATORY FOR THE U.S. DEPARTMENT OF ENERGY. Best Practices Guide for Energy-Efficient Data Center Design, 2011. Disponível em: . Acesso em: 14 set. 2014. PACIFIC GAS AND ELETRIC. High Performance Data Centers - A Design Guidelines Sourcebook, 2006. Disponível em: . Acesso em: 11 out. 2014. PESCADOR, Neri. Data Center - Norma EIA/TIA 942, 2010. Disponível em: . Acesso em: 8 set. 2014. PINHEIRO, José. O que é um Data Center, 2004. Disponível em: . Acesso em: 8 set. 2014. ROCKY MOUNTAIN INSTITUTE. Design Recommendations for High Performance Data Centers, 2003. Disponível em: . Acesso em: 9 out. 2014. SEATTLE GOVERNMENT. Seattle Nonresidential Energy Code, cap 14, Mechanical Systems, Section 1433. Disponível em: . Acesso em: 15 outubro, 2014. SMH SISTEMAS. Construção física de Data Center e ambientes críticos. Disponível em: < http://www.smh.com.br/?pg=construcao-data-centers>. Acesso em: 8 set. 2014. THE GREEN GRID. ERE: A Metric for Measuring the Benefit of Reuse Energy from a Data Center Whitepaper #29. Disponível em : http://www.thegreengrid.org/en/Global/Content/white-papers/ERE>. Acesso em: 14 out. 2014. THE GREEN GRID. Describing Data Center Power Efficiency, 2007. Disponível em: . Acesso em 15 set. 2014. THE GREEN GRID. Free Cooling Estimated Savings. Disponível em: . Acesso em: 12 out. 2014.

39

THE GREEN GRID, Quantitative Efficiency Analysis of Power Distribution Configurations for Data Center. Disponível em: . Acesso em 3 out. 2014. THE GREEN GRID. The Green Grid Data Center Power Efficiency Metrics: PUE and DCiE, 2007. Disponível em . Acesso em 14 out. 2014. TECH TARGET. Using NAS devices for Data Center Virtualization Storage, 2012. Disponível em: . Acesso em: 14 set. 2014. UFRJ - Engenharia de Controle e Automação. Conceito de virtualização. Disponível em: . Acesso em: 16 set. 2014. U.S. DEPARTMENT OF ENERGY, ENERGY EFFICIENCY AND RENEWABLE SERVER SYSTEM INFRASTRUCTURE (SSI). FORUM. Disponível . Acesso em: 19 out. 2014.

em:

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.