« Le centre de données, c’est avant tout un produit immobilier de très haute rentabilité financière ». En rapportant ces propos d’un ancien de Goldman-Sachs, Fanny Lopez (historienne de l’architecture et des techniques) et Cécile Diguet (directrice du département Urbanisme, Aménagement et Territoires de l’Institut Paris-Région) donnent le ton du livre. Elles replacent les centres de données comme nœud central de la mutation de l’économie capitaliste.
Pour ce faire, les autrices nous emmènent dans une enquête documentée qui s’appuie sur une vingtaine d’études de cas. Elles tracent scrupuleusement les matérialités foncières et énergétiques du numérique, de manière journalistique : chiffres, visites de terrain, entretiens et photos originales à l’appui. Le propos est dense, étayé, pragmatique. Une première partie dresse l’histoire et le contexte des data centers, les deuxième et troisième parties enquêtent sur leur situation actuelle en termes d’emprise spatiale et de congestion électrique, la quatrième partie explore les alternatives déjà existantes aux infrastructures actuelles, et la cinquième imagine trois scénarii pour le futur numérique.
Bien que le point de départ de cette enquête soit institutionnel (rapport ADEME 2018-2019), les autrices adoptent un point de vue technocritique. Elles portent la voix des mouvements qui s’opposent aux smart cities ou aux data centers, des collectivités qui se questionnent sur la prise en charge collective d’infrastructures qui servent des intérêts privés. Il est donc bien ici question de choix politiques et d’autres imaginaires possibles.
L’une des idées fortes du livre est de rappeler que les data centers ne sont pas une infrastructure « naturelle » d’Internet. L’irruption des centres de données est liée à l’émergence des acteurs privés qui vont structurer le réseau dans les années 1990. Les économies d’échelles entraînées par la rationalisation des infrastructures permettent ainsi d’offrir des services économiquement compétitifs d’hébergement (puis de cloud
Cloud
On parle de « cloud » ou de « nuage » (en français), pour désigner une infrastructure logicielle ou de stockage hébergée ailleurs sur l’internet. Loin de l’imaginaire immatériel que le terme – et souvent les visuels utilisés – illustrent, ces services nécessitent des machines performantes et polluantes, hébergées dans des datacenters. On entend parfois que le cloud est « l’ordinateur de quelqu’un d’autre », cette expression souligne que les données qui y sont enregistrées se trouvent sur une machine appartenant à une autre personne, association ou entreprise.
computing au début des années 2000 avec Amazon Web
WEB
Le web est un protocole spécifique de l’internet, permettant au départ d’accéder à des sites
web ou des ressources spécifiques, notamment au travers d’un système d’hyperliens renvoyant vers ces ressources.
Service), remplaçant petit à petit les « salles informatiques » des universités et des entreprises. Le data center devient la figure d’un internet qui se centralise au fur et à mesure qu’il se commercialise, pour se réduire au web≈, puis aux GAFAM
GAFAM
Gafam
Acronyme reprenant les initiales des multinationales géantes du web (Google (Alphabet), Apple, Facebook (Meta), Amazon et Microsoft). Le terme évoque par extension les problèmes politiques que posent ces compagnies : monopoles économiques, grandes fortunes des dirigeantes et précarité des conditions de travail des employées les moins qualifiées, omniprésence de leurs outils, rétention et exploitation des données personnelles, surveillance, capacité d’influence des décisions politiques et domination complète de la société numérique des câbles physiques aux contenus, des programmes aux appareils.
. C’est le démarrage d’une nouvelle industrie, celle de la donnée, qui, comme toutes les industries dans une économie capitaliste, va étendre exponentiellement sa production et ses besoins spatiaux et énergétiques.
À partir de là, les centres de données prolifèrent. Ils se déclinent en trois catégories interdépendantes, qui construisent ensemble un continuum territorial mondialisé. Des micro-centres urbains sont discrètement camouflés dans des bâtiments-machines sur-équipés de Paris ou de New-York. Dans les périphéries numériques de la Silicon Valley, d’Amsterdam et de Dublin, on recycle les bassins post-industriels ou on crée de nouveaux « territoires servants ». Et dans les régions rurales de l’Oregon et de la Suède, les centres hyperscales≈ s’étalent dans toute leur démesure.
Dans les trois cas, les centres de données engendrent une fragmentation spatiale et un accaparement du foncier et de l’énergie par les grandes entreprises privées du numérique. À chaque échelle, un même « déficit d’architecture » est également diagnostiqué par les autrices. Les centres de données ne s’affichent pas comme tels, sont relégués aux marges de la ville et — lorsqu’ils grandissent — finissent par s’effacer en se confondant avec la ligne d’horizon des paysages désolés qu’ils occupent.
Pourtant, d’autres imaginaires sont possibles. Les autrices évoquent les internets nationaux (chinois ou russe), mais surtout les alternatives sociales (FAI FAI Fournisseur d’accès à Internet (ISP en anglais, pour internet service provider). C’est l’entreprise ou l’association qui fournit une connexion à Internet. En Belgique, Proximus, Voo, Orange, Telenet, EDPnet sont des entreprises connues pour fournir des connexions au grand public. Il existe des FAI associatifs, plusieurs sont rassemblés sous la Fédération FDN (FFDN). En Belgique, Neutrinet est un FAI associatif. Ces FAI associatifs partagent généralement des valeurs communes, comme un fonctionnement démocratique et la défense et promotion de la neutralité du net (voir Neutrinet : faire de l’internet, au-delà de la technique). associatifs (voir « Neutrinet : faire de l’internet, au-delà de la technique »), services web locaux et libres) et techniques (retour à un internet pair-à-pair, possibilités d’un internet asynchrone) pour esquisser les scénarii du dernier chapitre. Parmi ces derniers, citons le système des « data mules » (ou delay tolerant networks), notamment utilisés pour relier les Saami, communautés nomades du nord de la Scandinavie, à Internet. Là, on navigue de manière asynchrone (ou avec un délai, d’où leur nom) au travers de « véhicules-datacenters » (bus de liaisons, ou même des motos) qui stockent temporairement les requêtes (mails, page, téléchargement, …) et récupèrent leurs résultats lors du passage dans une ville reliée à la fibre et à l’Internet mondial [1].
L’enquête donne de la matière à anticipation, que les autrices développent en trois scénarii. Les data mules conduisent au scénario « survivaliste IT » où l’Internet mondial est devenu intermittent, tandis que la démesure des centres de données hyperscales nous laisse entrevoir l’impact énergétique et spatial d’un internet monopolistique et centralisé où la victoire des Big Tech serait totale. Entre ces deux récits, les autrices imaginent un troisième scénario, celui du développement d’un Internet à deux vitesses : les Big Tech existent toujours, mais leur fonctionnement est réglementé et concurrencé par des initiatives collaboratives soutenues par les investissements publics.
On ressort de la lecture avec beaucoup de chiffres et de faits. Mais s’il fallait n’en retenir qu’un ce serait peut-être celui-là : « les prévisions les plus pessimistes atteignent pour 2030 un maximum de consommation de 51 % d’électricité mondiale dédié au secteur informatique » [2]. Il achève de nous convaincre qu’on ne peut pas faire l’impasse sur ce sujet et qu’il faut aller voir ce qui se trame dans la boîte noire.
