L’IA met au régime les datacenters pour les rendre moins énergivores – JDN

Bardé de capteurs, un centre de données génère un grand nombre de data. Passant ces flux à la moulinette, le machine learning ajuste la capacité du système de refroidissement en fonction de la charge.

Les data centers ont la réputation d’être des gouffres énergétiques. Selon diverses études, ils représentent de 1 à 3% de la demande en électricité. Avec l’inflation des usages numériques, leur consommation pourrait tripler voire quadrupler au cours de la prochaine décennie pour atteindre 10% de la production mondiale en 2030. Un récent article de Science tempère toutefois ces prévisions pessimistes. Il note que si la quantité de calcul a progressé de 550% entre 2010 et 2018, la consommation d’énergie des data centers n’a, elle, augmenté que de 6 % au cours de la même période.

L’efficience énergétique des data centers est, de fait, un cheval de bataille de longue date des acteurs du numérique, GAFA en tête. Au-delà de l’enjeu d’image autour de réduction de leur empreinte carbone, il s’agit plus prosaïquement de réduire les coûts d’exploitation. Les concepteurs comme les exploitants de centres de données ont les yeux rivés sur le fameux PUE (Power Usage Effectiveness), le principal indice d’efficacité énergétique. Il s’agit du rapport entre l’énergie totale utilisée par un centre de données et l’énergie consommée effectivement par ses équipements informatiques (serveurs, stockage, réseau). Il met notamment en évidence la part consacrée au système de refroidissement mis en place pour prévenir l’augmentation de la température des composants IT et éviter la surchauffe. Un PUE de 1,5 signifie que pour 1 Watt consommé par la charge IT, il faut 1,5 Watt pour faire fonctionner l’infrastructure.

Pour tendre vers un PUE de 1, le chiffre théorique idéal, différentes techniques permettent d’améliorer le rendement de la chaîne d’alimentation électrique et d’optimiser la consommation des systèmes de refroidissement. Le watercooling exploite, par exemple, les propriétés caloriporteuses de l’eau. Un liquide réfrigéré vient évacuer la chaleur dégagée par les serveurs. La conception même du data center, son implantation dans des pays aux climats polaires ou le recours aux énergies renouvelables sont d’autres pistes déjà exploitées.

Une IA devenue autonome chez Google

Les acteurs du numérique se sont aussi tournées vers l’intelligence artificielle. Si un centre de données traite des milliers d’informations par seconde, il génère lui-même un grand volume de données. De multiples capteurs remontent les températures intérieure et extérieure ou l’évolution de la charge de chaque serveur. Des données qu’il est possible de croiser avec, entre autres, les prévisions météorologiques. Sorte de thermostat augmenté, l’IA permet d’anticiper au plus juste, et en temps réel, l’énergie nécessaire au refroidissement du data center.

Concerné en premier chef, Google est un pionnier dans le domaine. Depuis 2014, le géant du numérique fait appel à l’IA pour réduire la consommation énergétique de ses centres de données. Dans un billet de blog datant de 2016, sa filiale spécialisée en IA, DeepMind, avançait un gain allant jusqu’à 40%, soit une réduction de 15% de la surcharge globale du PUE. Formé à partir des données d’historique de production et alimenté en temps réel par les milliers de capteurs de température ou d’hydrométrie propres à chaque data center, l’IA de Google, à base de réseaux neuronaux, recommande un scenario d’exploitation optimal en fonction des prédictions de température et de charge IT.

Le centre de données de Google basé dans le comté de Douglas, dans l’État de Géorgie aux Etats-Unis, est parcouru par des kilomètres de tuyaux. Le tuyau rose vif sur la photo sert au transfert d’eau depuis la rangée de refroidisseurs (équipements verts sur la gauche) vers une tour de refroidissement extérieure. © Google

Si le modèle se contentait d’émettre des recommandations aux gestionnaires de ses data centers, Google est passé un cran plus loin. Dans une note publiée deux ans plus tard, DeepMind explique que le système d’IA contrôle désormais directement le refroidissement des centres de données, même si les opérateurs peuvent reprendre la main à tout moment. « La mise en œuvre des recommandations exigeait trop d’efforts et de supervision de la part de l’opérateur », argue DeepMind.

L’efficience énergétique ne doit toutefois contrevenir à la performance des infrastructures. Face à cette problématique, DeepMind a mis en place huit mécanismes de contrôle qui passent par un score de confiance, éliminant de facto, les préconisations trop audacieuses, et prenant en compte les contraintes de sécurité. Ses experts ont délibérément bridé les performances du moteur de recommandations afin d’arriver à un compromis risques/bénéfices en termes de réduction d’énergie. Google en conclut qu’il est possible d’appliquer cette technologie à d’autres contextes industriels afin d’aider à lutter contre le changement climatique à une échelle bien plus grande encore.

Schneider optimise la boucle de refroidissement

Google n’est pas les seul à capitaliser sur les apports de l’IA pour optimiser la consommation électrique des data centers. Les fournisseurs IT comme ceux du secteur de l’énergie se positionnent sur ce terrain. C’est le cas de Schneider Electric. Son offre présente l’avantage de contrôler toute la chaîne de transformation énergétique d’un centre de données, des systèmes d’alimentation et des onduleurs aux armoires de climatisation en passant par les baies, les accessoires, les faux planchers et les solutions de monitoring.

« Par essence, l’edge computing s’avère moins consommateur que le cloud. Entre les deux, l’IA pourra jouer les arbitres »

Schneider Electric propose notamment un module d’IA dédié au pilotage intelligent des armoires de climatisation. Baptisée Cooling Optimize, cette box matérielle et logicielle optimise en permanence le débit d’air dans un centre de données en fonction des conditions environnementales ou des événements affectant la température comme le déplacement ou l’ajout d’une machine. Auto-apprenante, la solution étudie les pics de charge de la climatisation mettant, par exemple, en veille une armoire sur trois en heure creuse.

Cette approche trouve toute sa pertinence avec le concept de free cooling qui consiste à utiliser l’air extérieur la nuit ou durant les périodes automnales et hivernales afin de couper partiellement ou complètement le système de refroidissement traditionnel. Pour cela, l’IA assure un pilotage intelligent de la boucle du circuit d’eau de refroidissement en faisant varier sa température en fonction de la charge IT. « Prenons, l’exemple d’une température extérieure refroidie à 15°C en entrée des armoires de climatisation et qui en ressort à 20°C », illustre Damien Giroud, national sales director Secure Power France chez Schneider Electric. « A un instant donné, la capacité que doit délivrer le data center peut nécessiter une température de seulement 18°C. Le free cooling permettra de gagner les trois degrés nécessaires sans dégrader les niveaux de services. »

HPE optimise la redondance

Egalement engagé sur ce terrain, HPE s’est associé depuis 2019 avec une pointure de la recherche du domaine, en l’occurrence le laboratoire national sur les énergies renouvelables du Département américain de l’énergie (NREL). Les supercalculateurs du NREL affichent un PUE exceptionnel bas, de 1,036. La chaleur qu’ils émettent sert notamment à chauffer les bureaux et laboratoires avoisinants. Dans le cadre de leur partenariat de recherche, HPE et le NREL ont pour objectif de mettre au point de nouveaux modèles d’IA afin d’améliorer encore ce niveau d’efficacité énergétique. « Le projet tient compte de la température, de la vitesse du vent, des prévisions météorologiques…. », égraine Tahir Cader, power and cooling architect chez HPE.

Technologist, IT efficiency & sustainability pour la zone EMEA chez HPE, Mateo Dugand avance d’autres pistes. « Pour gagner en résilience, les data centers font l’objet d’une redondance à tous les niveaux qu’il s’agisse du nombre de pompes ou de capteurs. L’IA permet de réduire ce besoin de redondance sans rogner sur les impératifs de sécurité », souligne-t-il. Par ailleurs, Mateo Dugand insiste sur le développement de l’edge computing qui consiste à déporter le traitement des données à la périphérie du réseau, au plus proche de la source. « Par essence, ce mode décentralisé s’avère moins consommateur en énergie que le cloud computing« , insiste Mateo Dugand. « Une IA peut arbitrer et décider ou non de transférer les données dans le cloud en fonction des cas d’usage. »

Dernière tendance : la convergence de l’IT et de l’OT (Operational Technology). HPE s’est ainsi associé à des équipementiers électriques parmi lesquels Schneider Electric et le suisse ABB. Dans un communiqué de presse commun daté de juin, HPE et ABB estiment que l’association de leurs technologies débouche sur une réduction de la consommation d’énergie des supercalculateurs pouvant atteindre 30%.

admin

Share
Published by
admin

Recent Posts

TCHAD : Qair fait fi des risques et mise sur le solaire à N’Djamena – Africa Intelligence

Un e-mail vous est envoyé lorsqu’un article correspondant à vos centres d’intérêt est publié sur…

3 heures ago

TRANSITION ÉNERGÉTIQUE : L’ADEME vante la chaleur renouvelable auprès des entreprises – infos-dijon.com

Destiné aux collectivités, aux bailleurs et aux industriels, le Fonds Chaleur de l'ADEME abonde les…

4 heures ago

Planète OUI : zoom sur un fournisseur d’énergie 100 % renouvelable et française – ID, L’info Durable

Fournir de l’électricité et du gaz 100 % verts pour les particuliers, les entreprises et…

5 heures ago

Le 22 octobre, proclamé Journée mondiale de l’énergie – LINFO.re

Le 22 ocotbre est une date symbolique. Il y a huit ans, pour la première…

5 heures ago

Énergie et ressources | Changement de garde chez Boralex – La Presse

Après 14 années passées à la tête de Boralex, son président et chef de la direction…

8 heures ago

This website uses cookies.