Numéro 4

En finir avec le mensonge du siècle qu’est la « dématérialisation » ?

Depuis quelques années déjà, et plus encore depuis la crise de la Covid-19, nombreux sont les acteurs, 
tant publics que privés, qui nous parlent de la «  dématérialisation  » à propos de l’utilisation des services numériques. Or, la moindre analyse un peu objective de ce qu’est concrètement la techno-structure sur laquelle repose cette prétendue «  dématérialisation  », aboutira immanquablement à la conclusion qu’il s’agit d’une erreur d’appréciation des plus flagrantes. C’est même probablement un des plus gros mensonges communément 
colporté en ce début de 21e siècle  ! Décortiquons la question… [1]

Dématérialisation : définition

Jusque dans un passé proche, la dématérialisation pouvait être définie comme «  l’action ou fait de rendre immatériel, d’ôter la matière concrète, les éléments matériels…  », soit aussi «  éliminer toute référence aux choses matérielles, concrètes  ». L’immatériel est ce «  qui n’a pas de consistance matérielle, qui n’est pas formé de matière  », ou sur un plan philosophique ce qui «  est opposé à la matière et n’a de rapport ni avec les sens ni avec la chair  », voire aussi simplement «  qui ne paraît pas être matériel  » ou «  dont la réalité n’est pas tangible  ».

Si ces définitions restent valables, le sens donné à la dématérialisation, depuis une ou deux décennies, est généralement celui qui consiste à «  transformer des supports d’information matériels en supports numériques  », soit «  la suppression du support matériel grâce à l’informatique  ».

La définition qu’en propose le magazine Archimag résume plutôt bien et complètement l’idée qu’évoque probablement le terme pour la majorité de nos contemporaines :

«  Dématérialiser ses documents consiste à remplacer les documents au format papier de son organisation par des fichiers numériques, ou bien à les produire directement au format numérique via son système d’information (dématérialisation native). Elle vise également à stocker et conserver ses documents électroniques sur des ordinateurs ou des serveurs informatiques.  »

Des e-tickets plus légers 
que le papier  ?

Historiquement, l’idée de la «  dématérialisation  » par le numérique remonte fort probablement aux débuts de la micro-informatique, une époque où l’on mettait déjà en avant les économies potentielles – jamais réalisées dans les faits – que promettait l’utilisation des ordinateurs de bureau : la diminution des besoins en impressions papier et la réduction des coûts qui en découlerait. Or, vue globalement, la consommation de papier a pourtant suivi une inexorable croissance depuis les quatre dernières décennies, ce qui constitue probablement un des premiers échecs pour les belles promesses de la numérisation de nos activités.

Aujourd’hui, la suppression des supports papier est toujours mise en avant par les pouvoirs publics quand ils parlent de «  dématérialisation  ». Ce remplacement du papier par les outils numériques serait auréolé de multiples vertus corollaires, telle la simplification des procédures, la réduction des délais de traitement des dossiers, l’accès facile aux informations, la réduction des coûts administratifs ainsi que la réduction des déplacements. Et il s’agirait de rien de moins que d’engager l’administration vers la gestion sans support papier, ce qui conduirait à l’exemplarité environnementale [2].

Le secteur privé n’est pas en reste et, lorsque les grandes chaînes du commerce de détail vous proposent de remplacer le traditionnel ticket de caisse en papier par un mail, elles participent à ce même mouvement de «  dématérialisation  » des relations avec les usager..es ou client..es. Le remplacement du papier par un support électronique – le mail envoyé par lea commerçante – serait, «  par nature  », dénué de tout impact environnemental. Est-on certaine qu’un morceau de papier de 12 × 5 cm est plus nuisible pour l’environnement que l’utilisation d’une gigantesque infrastructure qui est très certainement la plus grande techno-structure que l’être humain ait jamais construite de toute l’histoire de l’humanité  ?

En effet, cette techno-structure est composée, d’une part, d’énormes «  usines  » remplies de milliers d’ordinateurs, les centres de données (ou data centers) dans lesquels sont notamment stockées nos boites mails et, d’autre part, de dizaines de millions de km de câbles : un million quatre cent mille kilomètres de câbles sous-marins auxquels il faut rajouter les millions de kilomètres de câbles terrestres qui parcourent nos rues, nos routes et nos campagnes. C’est-à-dire tous ces câbles et fibres optiques qui constituent l’essentiel de la toile mondiale de l’internet, qui relient entre eux tant les centres de données, que ces derniers avec les «  box internet  » et antennes GSM de nos opérateurs télécoms, ces portes d’entrées par le biais desquelles nous pouvons nous connecter à ce gigantesque World Wide Web WEB Le web est un protocole spécifique de l’internet, permettant au départ d’accéder à des sites 
web ou des ressources spécifiques, notamment au travers d’un système d’hyperliens renvoyant vers ces ressources. .

N’oublions surtout pas l’essentiel : la nécessité pour chacune d’entre nous de disposer de l’indispensable terminal pour se connecter à l’internet et consulter la boite mail sur laquelle retrouver l’e-ticket de caisse qu’on nous a vendu comme étant totalement «  dématérialisé  »  ! Dans le cas du PC portable par exemple, s’il ne pèse qu’environ 2 kg, son «  sac à dos écologique  » est très important : 600 kg de minerais divers pour obtenir les matières premières, 240 kg de combustibles fossiles, 22 kg de produits chimiques et 1500 litres d’eau. On constate à quel point la simple possession de ce terminal n’est rendue possible que par la consommation d’une énorme quantité de matières indispensables à sa fabrication. Quant aux smartphones, si leur petite taille a quelque peu réduit la quantité de matières nécessaires à leur fabrication, leur durée de vie moyenne, de deux à trois ans au plus – 63 % des smartphones sont utilisés moins de 2 ans selon l’ADEME –, fait qu’eux aussi participent allègrement à cette boulimie de ressources et matières diverses qui les placent assurément à l’opposé de cette prétendue «  dématérialisation  »…

Les data centers : l’industrie lourde du 21e siècle  ?

Mais revenons à la techno-structure que nous avons esquissée et concentrons-nous sur les centres de données, ces lieux très discrets dans lesquels s’entreposent et se calculent pourtant les milliers de milliards de gigaoctets de données numériques accumulées, dont le volume était estimé à 64 zettaoctets  [3] en 2020, avec un triplement prévu pour 2025, soit une croissance annuelle de 40 %.

S’il ne fait aucun doute que tant le nombre de data centers que leur consommation électrique est en forte croissance, avec des impacts environnementaux tout aussi indéniables, il n’est cependant pas facile d’obtenir des chiffres précis sur le sujet, tant les sources d’information, recherches et connaissances déjà produites en la matière sont à la fois jeunes, peu nombreuses, disparates, voire contradictoires… Tentons toutefois d’éclaircir le tableau.

Pour ce qui est de leur nombre, selon le type de centres de données pris en considération, on obtiendra des chiffres très différents. Si le total mondial de data centers était estimé à 8,55 millions pour l’année 2015 par Statista, il s’agissait là manifestement de statistiques assez larges, englobant tout ce qui existe, des plus petits aux plus grands, installés chez divers acteurs publics et privés. Dans son livre L’enfer numérique paru en 2021, Guillaume Pitron explique quant à lui qu’«  il existerait aujourd’hui près de trois millions de data centers d’une surface de moins de 500 mètres carrés dans le monde, 85 000 de dimension intermédiaire et une petite dizaine de milliers dont la taille peut avoisiner celle de l’Equinix AM4 (Amsterdam, 11 620 m²). Et au cœur de la toile de béton et d’acier, prospèrent plus de 500 data centers dits hyperscale hyperscale Les centres de données hyperscale ont une très grande superficie (> 10 000m2, > 10 000 serveurs) qui correspond à une grande consommation d’énergie (> 25MW, et souvent au-dessus de 80MW). Ce sont souvent des très grosses entreprises qui en sont les seules locataires. Sur les quelques 1000 centres de données hyperscale dans le monde, une petite partie seulement est installée en Europe, dont la majorité en Suède, aux Pays-Bas et en Irlande. , souvent vastes comme des terrains de football.  » Par ailleurs, Cloudscene, un acteur professionnel spécialiste de la question, annonce sur son site plus de 8 500 data centers – fort probablement à classer parmi les gros –, avec également plus de 580 centres en construction. Si on se concentre sur les très gros data centers, dits «  hyperscale  », Statista en recense 992 en 2023, alors qu’ils n’étaient que 259 en 2015. Soit un quasi-quadruplement en moins d’une décennie  ! À noter enfin, qu’avec 5 381 (gros) centres comptabilisés par Cloudscene sur leur sol en mars 2024, les USA se taillent une très grosse part du gâteau, bien loin devant les grands pays européens comme l’Allemagne (521) et le Royaume-Uni (514), ou même la Chine (449), l’Australie (307), ou encore la Russie (251) et le Japon (219). Pas étonnant qu’il faille quadriller les océans de câbles sous-marins pour tous les relier…

Concentrons-nous maintenant sur ces «  hyperscales  » que les acteurs du « cloud Cloud On parle de « cloud » ou de « nuage » (en français), pour désigner une infrastructure logicielle ou de stockage hébergée ailleurs sur l’internet. Loin de l’imaginaire immatériel que le terme – et souvent les visuels utilisés – illustrent, ces services nécessitent des machines performantes et polluantes, hébergées dans des datacenters. On entend parfois que le cloud est « l’ordinateur de quelqu’un d’autre », cette expression souligne que les données qui y sont enregistrées se trouvent sur une machine appartenant à une autre personne, association ou entreprise.  » construisent à tour de bras, notamment pour déployer les «  intelligences artificielles  » génératives telles Midjourney et autres ChatGPT. Comme le souligne Guillaume Pitron, ils sont très grands et représentent l’équivalent d’un à plusieurs terrains de football de salles remplies d’ordinateurs. Leur emprise sur le territoire est à la mesure : à titre d’exemple, le data center de Google à Saint-Ghislain, près de Mons, occupe un terrain plus grand que le centre de Namur, la capitale wallonne  ! Et leur consommation électrique est à la hauteur de cette emprise territoriale, car on estime qu’un data center de 10 000 m², soit un hectare, consomme en moyenne autant qu’une ville de 30 à 50 mille habitantes… Ainsi, celui de La Courneuve, le plus grand de France, en construction à 5 km de Paris sur un terrain de 7 hectares, avec ses 40 000 m² de salles informatiques, absorbera une puissance électrique de 130 MW, soit la consommation d’une ville de 200 000 habitantes  ! Et Fabrice Coquio, Président de Digital Realty France, d’Interxion France, ainsi que d’autres sociétés actives dans le secteur, renchérit : «  D’ici à 2030, une métropole telle que Paris aura besoin de 1400 hectares (soit 1/1000 de la surface de l’Ile-de-France) pour créer de nouveaux data centers et permettre aux données de cheminer sans encombre.  »

On comprend mieux pourquoi, au niveau mondial, la consommation électrique des data centers est maintenant supérieure à celle d’un grand pays  ! Car même si les chiffres varient du simple au double selon les sources, avec un total annuel estimé de 200 à plus de 400 TWh (térawattheures)  [4], on arrive au même ordre de grandeur que la consommation électrique annuelle d’un pays tel que la Grande-Bretagne, soit 290 TWh. Si on fait une moyenne des différentes sources qui explorent la question pour la période 2018-2022, retenir le chiffre d’une consommation annuelle de 300 TWh est probablement proche de la réalité et loin d’être surestimé. En ajoutant la consommation d’énergie consacrée au minage des cryptomonnaies, qui compterait pour approximativement 25 % du total, le Borderstep Institute de Berlin annonce une consommation annuelle de 350 à 500 TWh pour 2021. À titre de comparaison, en Belgique, la consommation annuelle globale d’électricité est estimée à environ 80 TWh.

Cette boulimie électrophage commence d’ailleurs à poser de sérieux problèmes dans diverses régions où les centres de données font florès. Constatant la croissance fulgurante de ceux-ci dans la région de Dublin, EirGrid, l’opérateur irlandais du réseau électrique, a instauré un moratoire sur la construction de nouveaux centres de données jusqu’en 2028 (voir l’article « Voyage au centre de la donnée »). Il faut dire que la consommation électrique des data centers sur l’île est passée de 1 238 GWh (gigawattheure), soit 5 % de l’électricité consommée pour l’année 2015, à 6 334 GWh en 2023, soit une augmentation de 512 % qui porte la part des usines numériques à 21 % du total  ! L’Irlande, qui compterait 85 centres de données mi-2024, voit ainsi la consommation électrique de ceux-ci dépasser celle des habitantes des zones urbaines, dont la part dans la consommation électrique du pays était de 18 % en 2023. Et l’Agence internationale de l’énergie prévoit que d’ici 2030 la consommation des centres de données pourrait atteindre 30 % de la consommation totale du pays.

Une consommation électrique 
dopée à l’IA  ?

L’Irlande est loin d’être un cas isolé, car tous les pays qui se montrent accueillants pour les usines numériques font progressivement face à des problèmes similaires. Dans une étude sortie en mai 2024, l’Electric Power Research Institute estime que la consommation des centres de données pourrait engloutir 9 % de la production électrique des USA d’ici 2030, soit le double de leur consommation actuelle. Une toute récente analyse de McKinsey sortie fin octobre 2024 anticipe aussi que la consommation des data centers européens pourrait tripler d’ici à 2030, pour atteindre 150 TWh, soit près du double de la consommation belge annuelle. Cette même analyse préconise d’ajouter 25 GW (gigawatts) de puissance électrique installée pour répondre aux besoins des centres de données européens qui hébergent les IA génératives, ce qui veut dire qu’il faudrait construire l’équivalent de 25 réacteurs nucléaires tel que celui en service en bord de Meuse à Tihange rien que pour garantir le fonctionnement des IA  !

L’approvisionnement en électricité n’est pas le seul à poser problème. En effet, dans les régions arides, on assiste de plus en plus à de vives tensions concernant l’utilisation des ressources hydriques, car les data centers ont également de très gros besoins en eau pour le refroidissement des ordinateurs. Il est en effet de notoriété publique que l’électronique supporte très mal les températures élevées. De récentes études semblent d’ailleurs montrer que la consommation d’eau des IA génératives est jusqu’à 4 fois plus importante que précédemment estimée, ce qui accroit globalement de 17 à 22 % la consommation de la ressource bleue mesurée chez Google, Meta et Microsoft.

Avec le déploiement massif des IA, et tout particulièrement des IA génératives, on assiste ces deux ou trois dernières années, à une forte montée en puissance des besoins en infrastructures. L’adoption rapide par des millions d’utilisateur..ices de ces nouveaux outils, couplée avec une intégration «  pervasive  » de ceux-ci dans toutes les strates du numérique – tels les moteurs de recherche sans lesquels il est vrai, nous serions dépourvus face à la déferlante d’informations mises à notre disposition sur le web –, a conduit les gros acteurs du «  cloud  » à investir massivement dans de nouveaux data centers. Ce qui, au passage, pousse maintenant les Big Tech à tout mettre en œuvre pour nous convaincre qu’en dehors de l’IA, il n’y aurait pas de salut. Sans entrer dans ce débat, il est évident que le recours massif aux IA s’accompagne d’une envolée vertigineuse des besoins en puissance de calcul, ce qui se traduit mécaniquement par une forte croissance de la consommation électrique, avec en bonus, une consommation d’eau tout aussi affolante.

Dans un article publié en octobre 2023, le chercheur Alex de Vries estimait que faire une seule requête – un «  prompt  » – afin d’obtenir un petit texte généré par un modèle de langage comme ChatGPT consommait dix fois plus d’électricité qu’une requête dans un moteur de recherche comme Google Search ou Bing. Il estimait également que l’intégration des IA génératives dans les moteurs de recherche pouvait encore potentiellement multiplier la consommation électrique par un facteur 3. Soit au total, 30 fois plus qu’une simple recherche sur Google sans utiliser d’IA  ! Dans une étude plus consistante intitulée Power Hungry Processing : Watts - Driving the Cost of AI Deployment  ? publiée en novembre 2023, d’autres chercheurses ont analysé différents modèles d’IA et, sans surprise, ce sont les modèles de génération d’images qui demandent le plus de puissance pour fonctionner : iels estiment ainsi que la génération d’une seule image peut requérir quasi autant d’électricité que celle nécessaire à la recharge complète d’un smartphone  !

Or, l’électricité d’origine renouvelable et non carbonée n’est produite que de manière limitée : il faut dès lors choisir pour quels usages la consommer. Alimenter les data centers avec de l’électricité «  verte  » se fait de facto au détriment d’autres usages tout aussi, voire plus, vitaux. Pas étonnant dès lors que l’on s’éloigne de plus en plus de la trajectoire de l’accord sur le climat obtenu à la COP Paris 2015, et qui visait à tout mettre en œuvre pour réduire les émissions de CO2 afin d’atteindre le «  zéro carbone net  » aussi rapidement que possible. Une trajectoire que tant Google que Microsoft s’étaient engagés à prendre… Or, les deux multinationales doivent aujourd’hui reconnaître qu’elles suivent une trajectoire diamétralement opposée  ! Et si leurs investissements massifs dans l’IA, avec notamment la construction de nouveaux centres de données pour déployer celle-ci, expliquent plus que probablement la croissance de leurs émissions de CO2, rien ne semble infléchir leur obstination à poursuivre dans cette voie, car on assiste au contraire à diverses déclarations qui vont dans le sens d’une poursuite des investissements. La confiance aveugle dans le solutionnisme technologique atteindrait même une forme de paroxysme avec par exemple la récente déclaration d’Eric Schmidt en faveur de la poursuite des investissements dans l’IA, estimant par ailleurs que «  de toute façon, nous n’atteindrons pas les objectifs climatiques  » [5]. Quant à Brad Smith, le patron de Microsoft, il considère que des investissements dans la production d’électricité d’origine nucléaire sont une voie à privilégier. Cette idée est corroborée par les annonces récentes de la volonté de quelques gros acteurs de la Tech d’investir dans les SMR (Small Modular Reactor). Pour rester crédibles, les GAFAM GAFAM
Gafam
Acronyme reprenant les initiales des multinationales géantes du web (Google (Alphabet), Apple, Facebook (Meta), Amazon et Microsoft). Le terme évoque par extension les problèmes politiques que posent ces compagnies : monopoles économiques, grandes fortunes des dirigeantes et précarité des conditions de travail des employées les moins qualifiées, omniprésence de leurs outils, rétention et exploitation des données personnelles, surveillance, capacité d’influence des décisions politiques et domination complète de la société numérique des câbles physiques aux contenus, des programmes aux appareils.
n’ont en effet d’autre choix que d’agir pour ramener rapidement leur production de gaz à effet de serre (GES) à des niveaux compatibles avec une trajectoire vers le zéro carbone net sur laquelle ils se sont par ailleurs engagés. Une analyse détaillée de la réalité accrédite d’ailleurs l’idée que la situation est plus mauvaise qu’annoncée : la production de GES induite par la consommation électrique de leurs data centers serait 662 % plus élevée qu’ils ne le déclarent  !

Mais peu importe, il faut continuer à investir  ! Avec sa division AWS (Amazon Web Services), Amazon qui est le plus gros fournisseur de services «  cloud  » pour les entreprises, vient d’investir 650 millions de dollars dans une nouvelle installation sur le campus «  Cumulus Data Assets  », un site de 485 hectares créé par le fournisseur d’énergie américain Talen Energy. La particularité de ce campus est qu’il se situe à proximité immédiate de la centrale nucléaire de Susquehanna en Pensylvanie : avec une capacité nominale de 2,5 GW, elle dispose de 2 réacteurs qui sont en service depuis 1983. Amazon projette d’y construire un immense data center dont la puissance devrait atteindre 960 MW, et qui consommerait alors potentiellement près de 40 % de l’électricité produite par la centrale et ses 2 réacteurs  ! Et c’est loin d’être le seul investissement d’Amazon dans ce secteur : il y aurait jusqu’à 240 data centers en projet chez le géant de la Tech. Une des conséquences de la forte croissance de ces projets est qu’ils se heurtent de plus en plus à des contraintes physiques : incertitudes sur l’approvisionnement électrique, manque de surfaces disponibles, d’eau, de main-d’œuvre, difficultés avec l’obtention des permis. Mais ce serait la pénurie d’électricité la pire crainte d’Amazon : «  Selon le Boston Consulting Group, la consommation d’électricité des centres de données américains devrait tripler d’ici 2030, en grande partie pour alimenter l’IA générative  ». Et Amazon connaîtrait déjà des problèmes d’approvisionnement en électricité dans l’Oregon, l’Ohio et la Virginie du Nord…

Serons-nous capables de sortir de l’ornière  ?

Les développements actuels du numérique et de l’IA en particulier, sont très loin de correspondre à l’idée de légèreté qu’évoque celle du «  joli petit nuage Cloud On parle de « cloud » ou de « nuage » (en français), pour désigner une infrastructure logicielle ou de stockage hébergée ailleurs sur l’internet. Loin de l’imaginaire immatériel que le terme – et souvent les visuels utilisés – illustrent, ces services nécessitent des machines performantes et polluantes, hébergées dans des datacenters. On entend parfois que le cloud est « l’ordinateur de quelqu’un d’autre », cette expression souligne que les données qui y sont enregistrées se trouvent sur une machine appartenant à une autre personne, association ou entreprise. bleu  » (voir le texte de la Mission Numérique des CEMEA « Un joli petit nuage bleu ! »)… Car, au-delà des terminaux que nous manipulons quotidiennement, ils s’appuient sur l’infrastructure bien lourde et tangible des réseaux et centres de données, qui eux-mêmes s’appuient sur des moyens de production et transport de l’électricité, tout aussi lourds et tangibles.

Ajoutons-y encore un aspect souvent oublié, celui de la fin de vie des équipements électriques et électroniques ces déchets (nommés DEEE), constituent un vaste problème au niveau mondial. 62 millions de tonnes de déchets ont été générés pour la seule année 2022, un chiffre en croissance de plus de 2 millions de tonnes chaque année, et qui devrait atteindre 82 millions de tonnes en 2030. Moins de 25 % (22,3 %) sont récoltés de manière adéquate, avec ici encore des atteintes graves et prolongées à l’environnement et à la santé des populations concernées. Le «  poids  » et la matérialité de nos actions réalisées par l’entremise du numérique se fait un peu plus précise.

Alors n’est-il pas temps – et urgent – d’en finir avec cette terminologie qui entretient un imaginaire complètement déconnecté de la réalité, tel cet usage inconsidéré du terme de «  dématérialisation  » quand divers acteurs publics ou privés s’expriment à propos de la numérisation de nos activités  ? Ne devrions-nous pas systématiquement combattre ces mensonges  ? Faut-il inventer de nouveaux termes, et prendre le risque qu’ils soient tout aussi déconnectés du côté tangible et matériel de la chose  ? Faut-il forger et utiliser des expressions qui rendraient compte de cette matérialité, et par exemple remplacer le terme «  cloud  » par quelque chose comme «  industrie lourde du stockage et du calcul des données numériques  »  ? C’est assurément moins sexy que le «  nuage  ».

À défaut de pouvoir trancher, je vous propose d’en débattre dans vos cercles respectifs, et de co-construire ces nouvelles façons de nommer les objets, usages et concepts du numérique, afin qu’ils reflètent au mieux les réalités et toutes leurs matérialités  ! Le fait que cela ne soit pas – ou si peu – questionné, fait également partie des mystères pour lesquels je n’ai pas de réponse. Y a-t-il u ne sociologue dans la salle  ? L’aveuglement politique sur ces questions serait-il juste le résultat attendu d’un lobbying intense de la part des grandes sociétés technologiques et des fédérations qui les soutiennent, telle Agoria  [6] ?

[1Cette version papier du texte ne comporte pas toutes les annotations, sources et références. Pour une version avec toutes les notes, rendez-vous sur : http://l.curseurs.be/mensonge-dematerialisation

[2Voir l’exposé des motifs de l’avant-projet de décret et ordonnance «   Bruxelles numérique   » portée par le ministre Bernard Clerfayt. En ligne : http://l.curseurs.be/motifs-ordonnance-numerique

[3Un zettaoctet équivaut à mille milliards de gigaoctets. Le gigaoctet valant un million de kilooctets, soit approximativement l’espace nécessaire pour stocker 250 exemplaires du texte intégral de la bible, ou 200 photos prises en moyenne résolution, ou encore un documentaire d’une heure trente tel que diffusé dans la qualité «   full HD   » 
sur la plate-forme d’Arte… 
Voir aussi https://fr.wikipedia.org/wiki/Octet

[4Un térawatt-heure (TWh) correspond à un milliard de kWh, soit la consommation annuelle moyenne de 100 000 foyers.

[5Voir l’article Silicon Valley is sacrificing the climate for AI, publié le 18/10/2024 sur le blog disconnect, et dans lequel Paris Marx fait référence 
à quelques citations d’Eric Schmidt extraites 
d’une vidéo disponible sur YouTube. Eric Schmidt est président d’Alphabet, la holding mère de Google.

[6Agoria est une fédération d’entreprises, auteure de l’étude Digital4climate qui met en avant le potentiel du numérique pour réduire les émissions de CO2 en Belgique.

Article précédent :
Re-câbler la critique
Article suivant :
Voyage au centre de la donnée