
Le pilotage énergétique des Datacenters entre dans une ère de maturité.
Si l’élargissement des enveloppes thermiques prôné par l’ASHRAE est une victoire technologique majeure, il bouscule nos certitudes et nos outils de mesure.
Jusqu’ici, le PUE (Power Usage Effectiveness) régnait en maître pour valider l’efficacité de l’infrastructure. Pourtant, ce progrès normatif révèle aujourd’hui un paradoxe : un PUE qui s’améliore peut masquer une dégradation de l’efficience réelle du calcul.
Pour le DSI, le défi n’est plus seulement de réduire la part de l’infrastructure, mais d’arbitrer avec précision entre la performance de ses installations CVC et la consommation intrinsèque de ses serveurs. Cet avis d’expert décrypte les mécanismes de ce transfert de charge et les nouveaux leviers d’optimisation.
L’héritage ASHRAE : de la “salle blanche” à 17°C aux enveloppes élargies
Le secteur a parcouru un chemin considérable depuis l’époque des premières “salles blanches”. À l’origine, avant même que le terme de Datacenter ne se généralise, ces espaces étaient exploités selon des standards de propreté et de thermique extrêmement rigides. Les températures étaient maintenues proches de 17°C pour garantir la fiabilité d’équipements encore peu tolérants et dont le comportement thermique était mal caractérisé.
L’évolution des recommandations de l’ASHRAE TC 9.9 a marqué un progrès fondamental dans la maturité de notre industrie. En introduisant les classes d’exploitation (A1 à A4) et en élargissant les plages de température admissibles (jusqu’à 27°C en “Recommended” et bien au-delà en “Allowable”), l’ASHRAE a libéré l’infrastructure des contraintes du refroidissement mécanique permanent.
Cette avancée technologique permet aujourd’hui de favoriser le free cooling et d’abaisser drastiquement les consommations CVC. Cependant, ce progrès s’accompagne d’un effet de bord souvent sous-estimé par les indicateurs classiques : le transfert d’une partie de la charge énergétique vers les équipements IT eux-mêmes.
Le transfert de charge énergétique :
la ventilation serveur, cette variable cachée
L’élévation des températures d’exploitation permise par les nouvelles normes ne supprime pas le besoin de dissipation thermique : elle en déplace le curseur. Là où les systèmes de climatisation prenaient historiquement en charge l’essentiel de l’effort, une part croissante de ce travail est désormais assurée par les serveurs.
Les équipements IT modernes sont dotés de systèmes de ventilation interne sophistiqués, capables de s’adapter dynamiquement. Lorsque la température d’entrée d’air augmente, les micro-ventilateurs internes accélèrent pour maintenir les composants critiques (CPU/GPU) dans leur plage de fonctionnement.
Ce mécanisme induit un transfert de consommation énergétique souvent occulté : la réduction des consommations côté infrastructure s’accompagne d’une augmentation côté IT. Or, ce “fan power” peut représenter jusqu’à 10 à 20 % de la consommation totale du serveur. Cette consommation est moins visible, moins pilotée, et surtout plus difficile à optimiser à l’échelle globale du site.
