Spécificités GTB pour Data Centers
Les data centers ont des contraintes spécifiques qui dictent l'architecture de leur GTB :
Criticité de la disponibilité
La disponibilité des services IT est primordiale. La GTB doit être :
- Redondante : serveurs, réseaux, alimentations
- Résiliente : capacité à continuer à fonctionner en mode dégradé
- Sécurisée : protection contre les cyberattaques
- Scalable : capacité à suivre l'ajout d'équipements
Densité d'équipements
Un data centre contient des milliers d'équipements à superviser :
- Serveurs (calcul, stockage, réseau)
- Equipements de refroidissement (CRAC, CRAH, pompes, tours aéroréfrigérantes)
- Onduleurs UPS, PDU, batteries
- Infrastructure réseau (switchs, routeurs)
- Surveillance (caméras, contrôle d'accès)
Défi : la GTB doit être capable de gérer un très grand nombre de points sans saturation.
Multiplicité des zones
Un data center est souvent divisé en zones :
- Salle blanche : allées froides, rangées de serveurs
- Salle blanche : réseaux, zone de câblage
- Salle d'opérations : alimentionaire, batteries
- Salle de refroidissement : groupes froids, tours aéro
Chaque zone peut avoir sa propre GTB ou être intégrée à une GTB globale.
KPI à Superviser
1. PUE (Power Usage Effectiveness)
Le PUE est l'indicateur majeur d'efficacité énergétique d'un data center :
Définition PUE
PUE = Énergie totale du data center / Énergie IT
- Énergie totale = IT + refroidissement + alimentation + éclairage + pertes
- Énergie IT = consommation des serveurs, stockage, réseau
Cibles :
- Excellent : PUE < 1.2
- Bon : PUE 1.2-1.4
- Moyen : PUE 1.4-1.6
- À améliorer : PUE > 1.6
2. DCiE (Data Center Infrastructure Efficiency)
Le DCiE mesure l'efficacité de l'infrastructure :
- DCiE = (IT + Refroidissement + Alimentation + Éclairage) / Énergie totale
- Permet d'identifier les pertes dans l'infrastructure
3. Autres KPI critiques
| KPI | Description | Seuil d'alerte |
|---|---|---|
| Température salle | Température ambiante moyenne | >27°C chaud, <18°C froid (risque condensation) |
| Humidité relative | Humidité ambiante moyenne | >60 % (risque condensation, corrosion) |
| T° alimentation serveurs | Température entrée d'eau froide | >25°C (réduction performance, risque arrêt) |
| Redondance | Disponibilité alimentation (N+1, 2N) | <99.9 % |
| Capacité batterie UPS | % de charge restante | >80 % (préparer le délestage) |
| Pertes joules | Dissipation thermique des équipements | Anomalie si en augmentation |
Optimisation du PUE par la GTB
Stratégies de pilotage
Refroidissement dynamique
Ajuster le nombre d'unités en fonction de la charge IT :
- Charge faible → arrêt d'une CRAH
- Charge moyenne → optimisation des allées froides
- Charge forte → tout en service
Free cooling
Utiliser l'air extérieur quand disponible :
- T° extérieure < 10°C → free cooling direct
- 10°C < T° extérieure < 15°C → free cooling + appoint
- GTB pilote les vannes d'air extérieur
Optimisation allées froides
Ajuster le débit d'air des CRAH selon la charge :
- Réduire la vitesse du ventilateur à charge faible
- Augmenter la température de soufflage (jusqu'à 18-20°C)
- Équilibrer la température entre allées
Conteneurisation
Pour les data centers en conteneurs :
- GTB spécifique par conteneur
- Optimisation autonome par rapport au PUE
Algorithmes de pilotage intelligent
La GTB peut intégrer des algorithmes d'optimisation :
Exemple : Machine Learning
- Prédiction de la charge IT basée sur l'historique
- Refroidissement anticipé avant la montée en charge
- Déplacement de la charge IT vers les serveurs les plus efficaces
Pilotage du Refroidissement
Le refroidement représente 30-40 % de la consommation d'un data center. La GTB peut l'optimiser de plusieurs façons.
Optimisation des CRAH/CRAC
Les CRAH (Computer Room Air Handler) et CRAC (Computer Room Air Conditioner) consomment 30-50 % de l'énergie du refroidissement.
Optimisation GTB :
- Vitesse variable : réduction de la vitesse du ventilateur à charge faible (jusqu'à -50 % de consommation)
- By-pass : utilisation de l'air extérieur pour le refroidissement (free cooling)
- Équilibrage : synchronisation des CRAH pour éviter la lutte thermique entre allées
- Enchaînement : démarrage séquencé selon la charge
Refroidissement liquide
De plus en plus de data centers adoptent le refroidissement liquide :
- Eau chaude dans les serveurs (max 40-50°C)
- Pompes de circulation
- Échangeurs externes (dry coolers)
- CRAH à eau glycolée
Intérêt GTB : optimiser le débit des pompes, la température de l'eau de retour, l'enclenchement des dry coolers.
Tours aéroréfrigérantes
La GTB peut également optimiser les tours aéoréfrigérantes :
- Vitesse variable des ventilateurs (suivant charge IT + météo)
- Régulation de la température de l'eau de retour
- Équilibrage des tours en cas de multiples unités
- Utilisation de l'eau de retour pour récupération chaleur (IND-UT-137)
Supervision de l'Alimentation Électrique
UPS et batteries
Les onduleurs UPS et batteries sont critiques pour la continuité de service. La GTB doit superviser :
- Charge batterie : % de charge restante, temps d'autonomie
- Température batteries : risque d'explosion si >30°C
- Équilibre de charge : répartiton de la charge entre les onduleurs
- Autonomie restante : temps de maintien en cas de coupure réseau
Gestion des PDU
Les Power Distribution Units alimentent les serveurs. La GTB doit contrôler :
- Charge par prise : éviter la surcharge
- Température prises : surchauffement potentiel
- Consommation électrique : identifier les serveurs énergivores
Optimisation des coûts énergétiques
Stratégies d'optimisation
- Déplacement de charge : déplacer les workloads vers les périodes où le kWh est le moins cher (heures creuses)
- Éteindre les serveurs inutilisés : automatiquement quand inactifs depuis X jours
- Hibernation des serveurs : réduire la consommation des serveurs inactifs sans les éteindre
- Regroupement des applications : mutualiser les serveurs pour améliorer le taux de remplissage
Cas d'Usage Réel : Data Center Tier IV
Profil : Data center de 500 m², 200 racks, puissance IT 1 MW, PUE actuel 1.6
Bilan avant GTB
- Refroidissement : 4 CRAH 100 kW fonctionnant en permanence
- Chauffage électrique en appoint en hiver
- PUE mesuré : 1.6 (600 kW de refroidissement pour 1000 kW IT)
- Consommation annuelle : 8 760 MWh/an
Solution GTB déployée
Équipements ajoutés :
- Compteurs d'énergie sur chaque PDU et chaque CRAH
- Sondes de température et humidité en plusieurs points
- Automates de pilotage des CRAH (contrôleurs DDC)
- Serveur GTB avec module IPE
Fonctions activées :
- Pilotage des CRAH selon la charge IT et la météo
- Free cooling automatique (T° ext < 12°C)
- Arrêt d'un CRAH quand charge IT < 30 %
- Déplacement de charge IT vers serveurs sous-utilisés
Résultats
Gains obtenus après 6 mois
- PUE ramené à 1.35 (-16 %)
- Consommation réduite de 7 500 MWh/an (-14 %)
- Économies annuelles : ~45 000 € (tarif industriel moyen)
- Prime CEE IND-UT-134 obtenue sur le système de mesurage
Coûts d'une GTB pour Data Center
Les data centers ont des coûts GTB spécifiques liés à leur criticité et à leurs exigences de redondance.
Small data center (<200 kW IT)
Coût : 25 000 - 60 000 €
- GTB basique avec supervision température/humidité
- Compteurs d'énergie sur PDU principales
- Alertes SMS/email
Medium data center (200-1000 kW IT)
Coût : 60 000 - 200 000 €
- GTB complète avec calcul PUE temps réel
- Optimisation CRAH/CRAC séquentielle
- Intégration free cooling automatique
Large data center (>1000 kW IT)
Coût : 200 000 - 800 000 €+
- GTB redondante avec DCIM intégré
- Jumeaux numériques, prévision charge
- Machine Learning pour optimisation PUE
🎯 ROI Data Center
Avec un PUE amélioré de 1.6 à 1.35, un data center de 1 MW économise ~45 000 €/an. ROI typique : 2-4 ans sans CEE, 1-2 ans avec IND-UT-134.
Délais de déploiement GTB Data Center
| Étape | Durée | Spécificité Data Center |
|---|---|---|
| Audit & conception | 3-6 semaines | Analyse PUE actuel, identification gisements |
| Instrumentation | 4-6 semaines | Installation compteurs, sondes T°/humidité |
| Configuration GTB | 3-5 semaines | Algorithmes PUE, optimisation CRAH |
| Tests & validation | 2-4 semaines | Scénarios de panne, tests redondance |
| TOTAL | 4-6 mois | Mode dégradé requis pendant installation |
Questions Fréquentes GTB Data Center
Quel PUE viser avec une GTB ?
Avec une GTB optimisée, les objectifs de PUE sont :
- Excellent : PUE < 1.2 (best practice avec free cooling)
- Bon : PUE 1.2-1.4 (objectif réaliste pour la plupart des sites)
- Moyen : PUE 1.4-1.6 (amélioration continue possible)
- À améliorer : PUE > 1.6 (potentiel d'économies important)
La GTB fonctionne-t-elle en cas de panne réseau ?
Oui, les GTB pour data centers sont conçues avec redondance :
- Serveurs GTB en mode actif/passif
- Alimentation secourue par onduleurs
- Mode dégradé local sur chaque automate
- Reprise automatique après panne
Quelles différences entre GTB et DCIM ?
Le DCIM (Data Center Infrastructure Management) est une spécialisation de la GTB pour les data centers. Il inclut :
- Inventory management (inventaire équipements)
- Capacity planning (suivi capacité)
- Asset management (gestion actifs)
- Power chain management (suivi chaîne alimentation)
La GTB data center intègre généralement ces fonctionnalités DCIM.
En savoir plus : synergie avec autres secteurs
Logistique frigorifique
Similarités avec data centers : froid critique, PUE-like, surveillance T° continue
IND-UT-116
HP/BP flottante pour optimiser groupes froids data center
IND-UT-135
Free cooling par eau de refroidissement - très adapté aux data centers
IND-UT-137
Récupération chaleur sur tours aéro pour réchauffement bureaux
Recommandations pour Data Centers
✅ Bonnes pratiques GTB data center
- Intégrer la GTB dès la conception (pas en superposition)
- Viser multi-niveaux (équipement, allée, salle, site, entreprise)
- Former les équipes aux nouveaux process de pilotage
- Prévoir l'évolutivité : extension, densification, nouvelles technologies
- Sécuriser la GTB contre les cyberattaques (isolement réseau)
Fiches CEE associées
Les data centers peuvent bénéficier de plusieurs fiches CEE :
- IND-UT-135 : Free cooling par eau de refroidissement
- IND-UT-116 : Haute pression flottante froid industriel
- Calorifugeage : Isolation parois planes/cylindriques (IND-UT-131)
- IND-UT-134 : Système de mesurage IPE