A climatização de data centers é uma das aplicações mais críticas da engenharia HVAC. Servidores e equipamentos de TI geram grande quantidade de calor e exigem temperatura e umidade controladas 24/7, com alta confiabilidade e redundância.
Neste guia, exploramos as principais tecnologias, estratégias de eficiência e requisitos para projetos de climatização de ambientes de missão crítica.
Requisitos Térmicos (ASHRAE)
A ASHRAE TC 9.9 define as condições recomendadas para ambientes de TI:
| Parâmetro | Classe A1 (Recomendado) | Classe A2 (Permitido) |
|---|---|---|
| Temperatura | 18-27°C | 10-35°C |
| Umidade Relativa | ≤60% e ponto de orvalho ≤15°C | 20-80% |
| Taxa de variação | ≤5°C/hora | ≤20°C/hora |
Data centers modernos operam com temperaturas mais altas (24-27°C) para economizar energia. A cada 1°C de aumento no setpoint, economia de 4-5% no consumo de refrigeração.
Sistemas de Climatização
CRAC (Computer Room Air Conditioner)
- Unidade de ar-condicionado de precisão com compressor próprio
- Condensação a ar (externa) ou a água (torre/chiller)
- Ideal para salas de servidores pequenas/médias
- Capacidades: 5-100 kW por unidade
CRAH (Computer Room Air Handler)
- Unidade de tratamento de ar conectada a central de água gelada
- Maior eficiência em grandes instalações
- Permite free cooling com economizadores
- Capacidades: 30-300+ kW por unidade
In-Row Cooling
- Unidades instaladas entre os racks, na própria fileira
- Resfriamento próximo à fonte de calor
- Ideal para alta densidade (>10 kW/rack)
- Menor mistura de ar quente/frio
Rear Door Heat Exchanger
- Trocador de calor na porta traseira do rack
- Remove calor diretamente na saída do servidor
- Para densidades extremas (20-40 kW/rack)
Estratégias de Eficiência
Contenção de Corredores
Separação física entre corredores quentes e frios:
- Contenção de corredor frio — Isola a entrada de ar frio nos servidores
- Contenção de corredor quente — Isola o retorno de ar quente
- Reduz mistura e melhora eficiência em 20-40%
Free Cooling
- Economizador a ar — Usa ar externo quando temperatura permite
- Economizador a água — Bypass do chiller em temperaturas baixas
- Economia de 30-70% dependendo do clima
PUE (Power Usage Effectiveness)
Métrica de eficiência energética de data centers:
- PUE = Energia Total / Energia de TI
- PUE 2.0 — Data center típico antigo
- PUE 1.5 — Bom desempenho
- PUE 1.2 — Excelente (hyperscale moderno)
Redundância e Classificação Tier
| Tier | Redundância | Disponibilidade | Downtime/Ano |
|---|---|---|---|
| Tier I | N (sem redundância) | 99.67% | 28.8 horas |
| Tier II | N+1 (componentes) | 99.75% | 22 horas |
| Tier III | N+1 (manutenção concorrente) | 99.98% | 1.6 horas |
| Tier IV | 2N (tolerante a falhas) | 99.99% | 26 minutos |
Nossos Projetos de Data Center
- Setor Data Centers — Atuamos em projetos de climatização de precisão para data centers corporativos e colocations, com redundância Tier III/IV.
- Banco do Brasil — Sedes SBS — Infraestrutura de climatização para CPDs das 3 sedes no Setor Bancário Sul de Brasília, com 4.350 TR e redundância operacional.
- ESAF Brasília — Data center governamental com refrigeração de precisão e backup de climatização.
- Banco do Brasil — Projetos de climatização para agências e CPDs regionais com requisitos de alta disponibilidade.
- UFG — Data center acadêmico com sistema de contenção de corredores e monitoramento ambiental.
Falha na climatização de data center pode causar desligamento de emergência (EPO) dos servidores em minutos, resultando em perda de dados e interrupção de serviços. Redundância não é opcional.
Monitoramento e Automação
- Sensores de temperatura/umidade — Em cada rack e corredor
- CFD (Computational Fluid Dynamics) — Simulação de fluxo de ar
- DCIM (Data Center Infrastructure Management) — Gestão integrada
- Alarmes e notificações — 24/7 para equipe de operação
Projeto de Data Center?
Projetamos sistemas de climatização de precisão para data centers de qualquer porte, com redundância Tier II a IV.
Solicitar Orçamento