Centres de données et énergie - Entre problème et solution
En 2019, le cabinet d’études Gartner prédisait que 85 % des grandes entreprises auraient fermé leurs centres de données traditionnels d’ici à 2025. Si les fermetures ne semblent pas s’opérer aussi vite que présagé, elles sont tout de même sérieusement envisagées : consommation d’énergie et d’eau, nouvelles technologies de refroidissement, uptime et back-up... autant de facteurs qui interviennent dans le choix entre informatique internalisée ou externalisée. (Frans Godden)
Les centres de données, ou datacenters, ne datent pas d’hier. Leur apparition remonte aux alentours des années 1940, à l’époque où l’armée américaine a construit l’ENIAC, le premier ordinateur électronique utilisé principalement pendant la Seconde Guerre mondiale pour réaliser des calculs d’artillerie et créer la première bombe atomique. Il a ensuite fallu passer par les ordinateurs centraux, les micro-ordinateurs et les serveurs pour enfin arriver aux centres de données tels que nous les connaissons aujourd’hui. Fonctionnant à la fois sur site et dans le cloud, ils sont devenus indispensables à notre société moderne.
Le passage de l’internalisation à l’externalisation est en partie lié à la consommation d’énergie. Selon le groupe de réflexion Energy Innovation, dans un centre de données, l’alimentation et le refroidissement des serveurs représentent près de 86 % de la consommation d’électricité. Viennent ensuite le stockage (11 %) et le réseau (3 %). Ironiquement, les TIC sont souvent présentées comme un moyen d’économiser l’énergie… alors qu’elles sont elles-mêmes devenues plus gourmandes en électricité au cours des dernières décennies. Pourquoi ? Les centres de données doivent être considérés comme le cœur de l’Internet : ils traitent, stockent et communiquent toutes les données des services que nous utilisons chaque jour, des médias sociaux aux calculs scientifiques. Et ce, en mobilisant toutes sortes d’équipements qui consomment tous de l’énergie : serveurs, disques durs, équipements de réseau, etc. Chacun de ces appareils chauffe et doit donc être refroidi, ce qui consomme aussi de l’énergie.
Virtualisation
Aujourd’hui, plutôt que de posséder une foule de serveurs physiques qui ont tous besoin d’espace et d’énergie, de nombreuses entreprises sont passées aux serveurs virtuels. Ceux-ci fonctionnent comme des serveurs physiques, mais sont hébergés ensemble sur un seul serveur dédié grâce à un logiciel de virtualisation, permettant de réduire considérablement les coûts énergétiques. Les systèmes de stockage aussi offrent d’importantes possibilités d’économie. Il n’est pas rare que les centres de données conservent 20 copies ou plus des mêmes données.
Pourtant, nous observons depuis quelques temps une autre tendance : les entreprises se défont de leurs serveurs et louent de l’espace sur des serveurs cloud, souvent moins chers et plus faciles à gérer, car la gestion est confiée à des spécialistes dans des centres de colocation multi-utilisateurs. Les économies d’échelle de ces grands centres de données leur permettent d’être plus économes en énergie, en particulier dans le cas des centres de données hyperscale. Mais vu leur taille, ces derniers ne sont pas les bienvenus partout. L’année dernière, Meta – la société mère de Facebook – a dû abandonner son projet de construction d’un méga centre de données à Zeewolde, aux Pays-Bas, après que la population locale s’est opposée au projet en raison de sa forte consommation d’énergie.
Immersion
L’un des principaux problèmes des grands centres de données est leur refroidissement, encore plus aujourd’hui avec le réchauffement climatique qui fait grimper les températures. De plus en plus, le refroidissement par air ou par eau n’est plus suffisant et nécessite en outre une grande quantité d’énergie. D’où l’utilisation toujours plus fréquente du refroidissement par liquide, et en particulier par immersion. Ce processus consiste à immerger complètement un serveur dans un bain de fluide thermique spécial non conducteur capable d’absorber jusqu’à 1.500 fois plus de chaleur que l’air, sans eau de refroidissement ni pièces mobiles telles qu’un ventilateur.
Un autre grand consommateur d’énergie des centres de données qui semble aussi en voie de disparition est le générateur diesel. Dès que l’alimentation électrique d’un centre de données est interrompue, un générateur diesel prend le relai et fournit l’énergie nécessaire au fonctionnement de tout le matériel informatique. Mais ce générateur présente quelques inconvénients : il produit des gaz d’échappement, fait beaucoup de bruit, consomme beaucoup de carburant et est assez encombrant. Des efforts croissants sont donc déployés pour remplacer les générateurs par des batteries, et en particulier très prochainement par des piles à combustible à hydrogène.
De meilleurs serveurs
Bien entendu, les progrès technologiques permettent aussi d’améliorer l’efficacité des serveurs et des équipements de réseau. Selon une étude de l’Uptime Institute, 40 % des serveurs installés dans les centres de données ont plus de cinq ans et consomment 66 % de l’énergie alors qu’ils n’effectuent que 7 % du travail. L’Agence américaine pour la protection de l’environnement (EPA) octroie depuis 1992 le label « Energy Star » aux équipements à haut rendement énergétique. De plus en plus d’entreprises se laissent guider par cette norme lorsqu’elles achètent du matériel informatique.
Les centres de données sont toujours plus nombreux à s’orienter également vers les énergies renouvelables. Les fournisseurs de services cloud, en particulier, misent énormément sur l’énergie éolienne et solaire, soit en interne, soit via des contrats avec des fournisseurs tiers. Fin 2020, la Commission européenne a même consacré un rapport à cette thématique : ‘Energy-efficient Cloud Computing Technologies and Policies for an Eco-friendly Cloud Market’. Elle y préconise notamment des systèmes de refroidissement plus efficaces, la réutilisation de la chaleur, le déploiement de logiciels de virtualisation pour mieux utiliser les serveurs, l’utilisation d’énergies renouvelables et la construction de centres de données dans des régions au climat plus froid.
Quid de l’Internet des objets (IoT) ?
Dans le secteur de l’énergie, il apparaît clairement que les capteurs (de température, d’humidité, de lumière ou de mouvement) sont les applications IoT les plus importantes. Ils peuvent en effet être intégrés dans chaque étape de la production, de la distribution et de la consommation d’énergie afin de surveiller et d’optimiser des données cruciales en temps réel. La technologie IoT peut également être utilisée pour le suivi en temps réel de la consommation d’énergie, de sorte à pouvoir adapter parfaitement la production à la distribution. Cette technique est déjà largement utilisée dans les villes intelligentes, où les dispositifs IoT collectent des informations à partir de capteurs et de compteurs, les analysent et utilisent ces données pour améliorer les infrastructures et les services. Non seulement pour l’approvisionnement en énergie, mais aussi pour les transports, le traitement des déchets, la qualité de l’air et de l’eau, etc. Le bureau d’études Statista prévoit que les investissements dans les infrastructures des villes intelligentes atteindront plus de 100 milliards de dollars d’ici à 2025.
Et puis, il y a l’énergie consommée par les dispositifs IoT eux-mêmes. Ils fonctionnent souvent avec des batteries, car ils se trouvent dans des endroits où le raccordement au réseau électrique est impossible, pendant des mois, voire des années. Lorsque la batterie est presque déchargée, elle envoie un signal pour indiquer qu’elle doit être remplacée. Cependant, certains de ces dispositifs déployés dans les villes et bâtiments intelligents consomment encore beaucoup trop d’énergie aujourd’hui, et l’industrie cherche activement des moyens de réduire cette consommation. Notamment en n’alimentant les capteurs qu’occasionnellement, lorsque cela est nécessaire, par exemple pour prendre la température d’une pièce.
Gare aux zombies
Presque tous les centres de données hébergent des zombies. Oui, vous avez bien lu. Un serveur zombie ou comateux est un serveur qui fonctionne toujours, mais qui n’a plus aucune fonction et qui ne fait que consommer de l’énergie et générer de la chaleur. Ce phénomène n’est pas nouveau : selon des recherches d’Anthesis Group et Stanford Research, environ 30 % de tous les serveurs physiques étaient comateux déjà en 2015. Une situation coûteuse : non seulement ces serveurs consomment de l’énergie, mais ils dégagent aussi de la chaleur, ont des licences logicielles payantes et présentent des risques de sécurité importants parce qu’ils ne sont plus entretenus ni mis à jour. Parfois, les zombies sont dans un premier temps conservés à des fins de back-up, juste au cas où, puis sont oubliés. Selon Hewlett Packard Enterprise, plus de 20 % des appareils de nombreux centres de données sont inutilisés. Pourquoi ne pas les éteindre pour économiser de l’énergie, de l’espace et des capacités de refroidissement ? Un logiciel de gestion d’infrastructure de centre de données (DCIM) capable de cartographier tous les serveurs et de détecter et désactiver les zombies est, à cet égard, un investissement plus qu’utile.
Cet article est paru dans le Top ICT, qui est disponible en PDF.