GTB pour Data Centers : PUE, Supervision et Efficacité Énergétique

Les data centers et salles informatiques consomment jusqu'à 2 % de l'électricité mondiale. La GTB data center (Gestion Technique du Bâtiment) est indispensable pour optimiser leur efficacité énergétique, surveiller le PUE (Power Usage Effectiveness) et garantir la disponibilité des services. Ce guide présente les spécificités GTB pour data centers, les KPI à suivre et les meilleures pratiques.

Enjeux énergétiques des data centers

  • PUE optimal : 1.05 à 1.1 (objectif best practice)
  • PUE moyen France : 1.6 à 1.8 (marge de progression important)
  • Consommation IT : 40-60 % de la consommation totale
  • Refroidissement : 30-40 % (contribution majeure aux pertes)
  • GTB = optimisation continue : réduction 10-20 % de la consommation

Spécificités GTB pour Data Centers

Les data centers ont des contraintes spécifiques qui dictent l'architecture de leur GTB :

Criticité de la disponibilité

La disponibilité des services IT est primordiale. La GTB doit être :

  • Redondante : serveurs, réseaux, alimentations
  • Résiliente : capacité à continuer à fonctionner en mode dégradé
  • Sécurisée : protection contre les cyberattaques
  • Scalable : capacité à suivre l'ajout d'équipements

Densité d'équipements

Un data centre contient des milliers d'équipements à superviser :

  • Serveurs (calcul, stockage, réseau)
  • Equipements de refroidissement (CRAC, CRAH, pompes, tours aéroréfrigérantes)
  • Onduleurs UPS, PDU, batteries
  • Infrastructure réseau (switchs, routeurs)
  • Surveillance (caméras, contrôle d'accès)

Défi : la GTB doit être capable de gérer un très grand nombre de points sans saturation.

Multiplicité des zones

Un data center est souvent divisé en zones :

  • Salle blanche : allées froides, rangées de serveurs
  • Salle blanche : réseaux, zone de câblage
  • Salle d'opérations : alimentionaire, batteries
  • Salle de refroidissement : groupes froids, tours aéro

Chaque zone peut avoir sa propre GTB ou être intégrée à une GTB globale.

KPI à Superviser

1. PUE (Power Usage Effectiveness)

Le PUE est l'indicateur majeur d'efficacité énergétique d'un data center :

Définition PUE

PUE = Énergie totale du data center / Énergie IT

  • Énergie totale = IT + refroidissement + alimentation + éclairage + pertes
  • Énergie IT = consommation des serveurs, stockage, réseau

Cibles :

  • Excellent : PUE < 1.2
  • Bon : PUE 1.2-1.4
  • Moyen : PUE 1.4-1.6
  • À améliorer : PUE > 1.6

2. DCiE (Data Center Infrastructure Efficiency)

Le DCiE mesure l'efficacité de l'infrastructure :

  • DCiE = (IT + Refroidissement + Alimentation + Éclairage) / Énergie totale
  • Permet d'identifier les pertes dans l'infrastructure

3. Autres KPI critiques

KPI Description Seuil d'alerte
Température salle Température ambiante moyenne >27°C chaud, <18°C froid (risque condensation)
Humidité relative Humidité ambiante moyenne >60 % (risque condensation, corrosion)
T° alimentation serveurs Température entrée d'eau froide >25°C (réduction performance, risque arrêt)
Redondance Disponibilité alimentation (N+1, 2N) <99.9 %
Capacité batterie UPS % de charge restante >80 % (préparer le délestage)
Pertes joules Dissipation thermique des équipements Anomalie si en augmentation

Optimisation du PUE par la GTB

Stratégies de pilotage

Refroidissement dynamique

Ajuster le nombre d'unités en fonction de la charge IT :

  • Charge faible → arrêt d'une CRAH
  • Charge moyenne → optimisation des allées froides
  • Charge forte → tout en service

Free cooling

Utiliser l'air extérieur quand disponible :

  • T° extérieure < 10°C → free cooling direct
  • 10°C < T° extérieure < 15°C → free cooling + appoint
  • GTB pilote les vannes d'air extérieur

Optimisation allées froides

Ajuster le débit d'air des CRAH selon la charge :

  • Réduire la vitesse du ventilateur à charge faible
  • Augmenter la température de soufflage (jusqu'à 18-20°C)
  • Équilibrer la température entre allées

Conteneurisation

Pour les data centers en conteneurs :

  • GTB spécifique par conteneur
  • Optimisation autonome par rapport au PUE

Algorithmes de pilotage intelligent

La GTB peut intégrer des algorithmes d'optimisation :

Exemple : Machine Learning

  • Prédiction de la charge IT basée sur l'historique
  • Refroidissement anticipé avant la montée en charge
  • Déplacement de la charge IT vers les serveurs les plus efficaces

Pilotage du Refroidissement

Le refroidement représente 30-40 % de la consommation d'un data center. La GTB peut l'optimiser de plusieurs façons.

Optimisation des CRAH/CRAC

Les CRAH (Computer Room Air Handler) et CRAC (Computer Room Air Conditioner) consomment 30-50 % de l'énergie du refroidissement.

Optimisation GTB :

  • Vitesse variable : réduction de la vitesse du ventilateur à charge faible (jusqu'à -50 % de consommation)
  • By-pass : utilisation de l'air extérieur pour le refroidissement (free cooling)
  • Équilibrage : synchronisation des CRAH pour éviter la lutte thermique entre allées
  • Enchaînement : démarrage séquencé selon la charge

Refroidissement liquide

De plus en plus de data centers adoptent le refroidissement liquide :

  • Eau chaude dans les serveurs (max 40-50°C)
  • Pompes de circulation
  • Échangeurs externes (dry coolers)
  • CRAH à eau glycolée

Intérêt GTB : optimiser le débit des pompes, la température de l'eau de retour, l'enclenchement des dry coolers.

Tours aéroréfrigérantes

La GTB peut également optimiser les tours aéoréfrigérantes :

  • Vitesse variable des ventilateurs (suivant charge IT + météo)
  • Régulation de la température de l'eau de retour
  • Équilibrage des tours en cas de multiples unités
  • Utilisation de l'eau de retour pour récupération chaleur (IND-UT-137)

Supervision de l'Alimentation Électrique

UPS et batteries

Les onduleurs UPS et batteries sont critiques pour la continuité de service. La GTB doit superviser :

  • Charge batterie : % de charge restante, temps d'autonomie
  • Température batteries : risque d'explosion si >30°C
  • Équilibre de charge : répartiton de la charge entre les onduleurs
  • Autonomie restante : temps de maintien en cas de coupure réseau

Gestion des PDU

Les Power Distribution Units alimentent les serveurs. La GTB doit contrôler :

  • Charge par prise : éviter la surcharge
  • Température prises : surchauffement potentiel
  • Consommation électrique : identifier les serveurs énergivores

Optimisation des coûts énergétiques

Stratégies d'optimisation

  • Déplacement de charge : déplacer les workloads vers les périodes où le kWh est le moins cher (heures creuses)
  • Éteindre les serveurs inutilisés : automatiquement quand inactifs depuis X jours
  • Hibernation des serveurs : réduire la consommation des serveurs inactifs sans les éteindre
  • Regroupement des applications : mutualiser les serveurs pour améliorer le taux de remplissage

Cas d'Usage Réel : Data Center Tier IV

Profil : Data center de 500 m², 200 racks, puissance IT 1 MW, PUE actuel 1.6

Bilan avant GTB

  • Refroidissement : 4 CRAH 100 kW fonctionnant en permanence
  • Chauffage électrique en appoint en hiver
  • PUE mesuré : 1.6 (600 kW de refroidissement pour 1000 kW IT)
  • Consommation annuelle : 8 760 MWh/an

Solution GTB déployée

Équipements ajoutés :

  • Compteurs d'énergie sur chaque PDU et chaque CRAH
  • Sondes de température et humidité en plusieurs points
  • Automates de pilotage des CRAH (contrôleurs DDC)
  • Serveur GTB avec module IPE

Fonctions activées :

  • Pilotage des CRAH selon la charge IT et la météo
  • Free cooling automatique (T° ext < 12°C)
  • Arrêt d'un CRAH quand charge IT < 30 %
  • Déplacement de charge IT vers serveurs sous-utilisés

Résultats

Gains obtenus après 6 mois

  • PUE ramené à 1.35 (-16 %)
  • Consommation réduite de 7 500 MWh/an (-14 %)
  • Économies annuelles : ~45 000 € (tarif industriel moyen)
  • Prime CEE IND-UT-134 obtenue sur le système de mesurage

Coûts d'une GTB pour Data Center

Les data centers ont des coûts GTB spécifiques liés à leur criticité et à leurs exigences de redondance.

Small data center (<200 kW IT)

Coût : 25 000 - 60 000 €

  • GTB basique avec supervision température/humidité
  • Compteurs d'énergie sur PDU principales
  • Alertes SMS/email

Medium data center (200-1000 kW IT)

Coût : 60 000 - 200 000 €

  • GTB complète avec calcul PUE temps réel
  • Optimisation CRAH/CRAC séquentielle
  • Intégration free cooling automatique

Large data center (>1000 kW IT)

Coût : 200 000 - 800 000 €+

  • GTB redondante avec DCIM intégré
  • Jumeaux numériques, prévision charge
  • Machine Learning pour optimisation PUE

🎯 ROI Data Center

Avec un PUE amélioré de 1.6 à 1.35, un data center de 1 MW économise ~45 000 €/an. ROI typique : 2-4 ans sans CEE, 1-2 ans avec IND-UT-134.

Délais de déploiement GTB Data Center

Étape Durée Spécificité Data Center
Audit & conception 3-6 semaines Analyse PUE actuel, identification gisements
Instrumentation 4-6 semaines Installation compteurs, sondes T°/humidité
Configuration GTB 3-5 semaines Algorithmes PUE, optimisation CRAH
Tests & validation 2-4 semaines Scénarios de panne, tests redondance
TOTAL 4-6 mois Mode dégradé requis pendant installation

Questions Fréquentes GTB Data Center

Quel PUE viser avec une GTB ?

Avec une GTB optimisée, les objectifs de PUE sont :

  • Excellent : PUE < 1.2 (best practice avec free cooling)
  • Bon : PUE 1.2-1.4 (objectif réaliste pour la plupart des sites)
  • Moyen : PUE 1.4-1.6 (amélioration continue possible)
  • À améliorer : PUE > 1.6 (potentiel d'économies important)

La GTB fonctionne-t-elle en cas de panne réseau ?

Oui, les GTB pour data centers sont conçues avec redondance :

  • Serveurs GTB en mode actif/passif
  • Alimentation secourue par onduleurs
  • Mode dégradé local sur chaque automate
  • Reprise automatique après panne

Quelles différences entre GTB et DCIM ?

Le DCIM (Data Center Infrastructure Management) est une spécialisation de la GTB pour les data centers. Il inclut :

  • Inventory management (inventaire équipements)
  • Capacity planning (suivi capacité)
  • Asset management (gestion actifs)
  • Power chain management (suivi chaîne alimentation)

La GTB data center intègre généralement ces fonctionnalités DCIM.

En savoir plus : synergie avec autres secteurs

Logistique frigorifique

Similarités avec data centers : froid critique, PUE-like, surveillance T° continue

IND-UT-116

HP/BP flottante pour optimiser groupes froids data center

IND-UT-135

Free cooling par eau de refroidissement - très adapté aux data centers

IND-UT-137

Récupération chaleur sur tours aéro pour réchauffement bureaux

Recommandations pour Data Centers

✅ Bonnes pratiques GTB data center

  • Intégrer la GTB dès la conception (pas en superposition)
  • Viser multi-niveaux (équipement, allée, salle, site, entreprise)
  • Former les équipes aux nouveaux process de pilotage
  • Prévoir l'évolutivité : extension, densification, nouvelles technologies
  • Sécuriser la GTB contre les cyberattaques (isolement réseau)

Fiches CEE associées

Les data centers peuvent bénéficier de plusieurs fiches CEE :