- Temps de lecture : 4 min
Explosion du numérique, explosion du volume de données… À l’heure du big data et de la multiplication des data centers, viser une sobriété numérique a-t-il encore un sens ?
Big data, big troubles pour l’environnement…
Aussi abstrait soit-il, le numérique représente selon The Shift Project au moins 4 % des émissions de gaz à effet de serre dans le monde. Avant même leur utilisation, c’est la fabrication et gestion des supports et terminaux (ordinateur, smartphone…) ainsi que leur exportation qui ont un impact fort sur notre environnement. À l’exploitation de mines et la pollution des rivières – entre autres – s’ajoutent la fabrication et l’utilisation des infrastructures réseau. Près de 30 % des émissions de gaz à effet de serre émis par notre consommation du numérique proviennent par exemple des canaux sous-marins grâce auxquels nous nous connectons tous à Internet. Des infrastructures certes invisibles pour les terriens mais qui se comptent par centaines et qui nécessitent de nombreux engins et ressources pour leur mise en place et manutention.
Mais si notre usage du numérique pollue autant, c’est surtout à cause de l’énergie que demandent les data centers, ces géants “centres de données” disséminés aux quatre coins du monde. Car abriter des centaines de serveurs en perpétuelle activité à un même endroit engendre un effet Joule qui risque d’endommager les machines. Ces lieux requièrent donc du froid bien souvent artificiellement produit grâce à de la climatisation ou des centaines de milliards de litres d’eau par an. Une hérésie environnementale. Selon une étude parue sur la revue scientifique Nature, 200 térawattheures (TWh) d’électricité ont été utilisés par les data centers dans le monde au cours de l’année 2018.
“Quand on s’intéresse à la pollution numérique, on parle surtout des dégâts générés par la puissance de calcul grandissante des data centers d’aujourd’hui. C’est cela qui demande le plus de ressources énergétiques. Et nos besoins ne sont pas près de décroître, bien au contraire."
Chafiq, Consultant SooIT
Dans ces serveurs, de précieuses données sont stockées et analysées en temps réel, 24 h sur 24, 7 jours sur 7. Cryptomonnaie, mails, visioconférences, streaming, signaux GPS, photos, hébergement de sites web… Nous produisons en moyenne plus de 2,5 trillions d’octets par jour. Un chiffre qui ne cesse de grandir à vitesse exponentielle. Nous produisons en effet non seulement de plus en plus de données, mais de surcroît des données de plus en plus volumineuses nécessitant des calculs de plus en plus poussés.
Si ces chiffres restent encore abstraits pour la plupart des mortels, leur impact, lui, est bien réel. Hausse des émissions de dioxyde de carbone, déstabilisation et destruction d’écosystèmes, détérioration de la santé de la population environnante… Alors, face à ce constat, acteurs et consommateurs du numérique revoient leur façon de produire et gérer leurs données.
La sobriété numérique face au big data, un combat perdu d’avance ?
Au début des années 2000 émerge l’expression “sobriété numérique”. Derrière ce terme prometteur, la volonté de réduire drastiquement son usage du numérique ou du moins, de consommer plus raisonnablement. L’application des bonnes pratiques se répand chez les particuliers, mais également en entreprise. On parvient à dépasser le stade insincère du greenwashing. La dématérialisation se généralise grâce à des solutions innovantes (Office 365, Report One, Google Drive…), on invite à nettoyer les boîtes mail, envoyer des liens vers des fichiers plutôt que des fichiers, privilégier les appels aux visioconférences, les sms aux vidéos, investir dans des outils durables, des solutions et des “serveurs verts”, acheter moins, recycler plus… Tout connecté adhère, en théorie, au concept de sobriété numérique.
Mais si l’on parle de Big Data, ce sont surtout aux grandes entreprises et aux autorités de faire la différence. On attend d’elles qu’elles montrent l’exemple, investissent dans des technologies moins énergivores et optimisent l’utilisation de leurs data centers. Certaines EDN semblent jouer le jeu. C’est le cas des GAFA, principaux “suspects” dans la multiplication des data centers. Le trio Facebook, Google et Apple s’est en effet notamment engagé à faire tourner à 100 % leurs data centers grâce aux énergies renouvelables. Des serveurs qui fonctionneraient ainsi principalement grâce à l’énergie produite par des parcs photovoltaïques et éoliens. Le souhait exprimé en 2017 n’a pour le jour pas été réalisé. Le pari semble audacieux quand on connaît le volume colossal et grandissant des données à stocker en 2022.
Alors peut-on véritablement croire en un Green IT ? L’usage des énergies fossiles semble voué à durer au vu des pratiques actuelles des géants du Cloud Computing. Prenons l’exemple du leader du marché de l’hébergement dans le Cloud, AWS (Amazon Web Services), propriétaire des sites les plus visités au monde. Devant Microsoft et Google et avec des clients tels que Netflix, Spotify et Apple, AWS est un acteur décisif dans l’usage et la production du volume faramineux de data. Selon GreenPeace, en 2018, la moitié de l’énergie nécessaire au fonctionnement d’Amazon provenait des ressources fossiles, dont principalement du charbon, faisant ainsi de lui, l’un des plus gros pollueurs de sa génération.
Qu’en est-il en France ? Selon un rapport d’information publié par le Sénat en 2020, les data centers représentaient en France en 2019, 14 % de l’empreinte carbone du numérique en France. Le texte évoque une “consommation électrique des data centers qui devrait être multipliée par trois en vingt ans malgré les gains d’efficacité énergétique.”
Dans l’hexagone, certaines initiatives redonnent un peu d’espoir. On peut citer la SNCF qui s’est rapprochée, tout comme plusieurs groupes bancaires, de la startup Immersion 4. Leur idée ? Immerger des serveurs dans des bacs remplis d’un fluide ICE (Immersion Coolant for Electronics). Une nouvelle génération d’huile diélectrique 100 % synthétique qui permettrait un refroidissement qui n’engagerait ni électricité, ni eau. D’autres startups s’emploient à récupérer la chaleur dégagée par les serveurs pour chauffer leurs locaux, par exemple. Et en parallèle, de nombreuses entreprises s’appuient déjà sur la technologie de free-cooling qui consiste à refroidir les serveurs grâce à l’air extérieur naturellement froid. C’est pourquoi on trouve de nombreux data centers en altitude ou dans des régions particulièrement froides.
Stocker local, mais surtout stocker optimal
Certains imaginent également se défaire des hyper data centers situés à l’étranger pour en implanter directement sur notre territoire. Le Sénat a ainsi proposé en 2020 de “favoriser l’installation de data centers en France en renforçant l’avantage fiscal existant et en le conditionnant à des critères de performance environnementale.”
Mais le premier pas réaliste et efficace reste d’imaginer des data centers moins énergivores et d’optimiser leur utilisation comme leur réparation. Car un serveur performant consommera toujours moins qu’un serveur fatigué. On peut alors citer Ia société suisse Infomaniak, spécialisée dans l’hébergement de sites web, qui compense depuis le début des années 2000 les émissions de dioxyde de carbone qu’elle génère à… 200 %. L’entreprise expliquait ainsi à Numerama en 2020 que “100 % de leurs compensations étaient faites en Suisse, dans une réserve forestière ancienne qui stocke le CO2, et que les 100 % restants étaient compensés via un projet au Mexique pour optimiser la consommation d’eau.” Véritable prouesse écologique ou simple posture green, reste que l’indicateur Power usage effectiveness (PUE) des deux data centers de la société suisse n’excèdent pas 1,17. Pour rappel, cet indicateur évalue l’efficacité énergétique d’un centre informatique : plus le PUE d’un data center est proche de 1, plus il est jugé respectueux de l’environnement. Un score à souligner quand on sait que le PUE moyen des data centers de cette époque est de 1,8…
Vous aussi faites partie de l’aventure SooIT