Il y a deux ans, les NFT NFT Les « NFT », « jetons non-fongibles » (de l’anglais non-fungible token), sont des certificats de propriété numériques permettant de rendre uniques des œuvres d’art qui ne le sont pas par essence, notamment des fichiers numériques qui peuvent être copiés, reproduits à l’infini. ≈ ont généré un nombre impressionnant d’articles de presse, de vidéos, de reportages télévisés. La promesse politique était de la magnitude d’une révolution. En plus des crypto-monnaies, déjà censées libérer l’humain de la tutelle des banques privées adossées aux États, le NFT promettait à chaque artiste l’accès à un marché de l’art horizontal, délivré de la tutelle des galeristes et autres institutions de l’art. Il ne reste quasi rien de cet emballement aujourd’hui, et le terrain est désormais occupé par de nombreuses spéculations autour du concept et des usages potentiels de services rassemblés sous l’unique terme d’Intelligence Artificielle (IA). Ces spéculations attestent d’une forme de sidération, mais, en se penchant sur le sujet, on s’aperçoit vite qu’aucune spécialiste du domaine (académique ou autoproclamée…) n’a d’idée de ce qui est en train de se passer, de ce qui est en jeu, et de son impact sociétal même à court terme. C’est à la fois rassurant – pas de grand complot ici – mais évidemment inquiétant.
Les recherches autour de l’IA ont été amorcées dès la fin des années 1950 et sont montées en puissance depuis les années 1980, aussi bien dans le nombre de chercheureuses que dans les moyens alloués. Pourquoi ne font-elles irruption dans le débat public qu’aujourd’hui ? La réponse est à trouver du côté de la mise en disponibilité auprès du grand public de ChatGPT, de Dall-E et Midjourney, par le biais d’une disruption typique du capitalisme marchand : un outil hors de portée est mis à disposition du grand public par une startup gavée d’argent spéculatif, coupant l’herbe sous les pieds de concurrents qui visaient des solutions payantes réservées à un public de niche. Le génie commercial réside dans le développement d’une interface permettant l’appropriation d’une technologie complexe par un public le plus large possible. On peut trouver dans l’histoire des techniques de nombreux précédents (voir « La première dose est gratuite ».
En 1888, l’étasunien Georges Eastman lance le « Système Kodak » avec ce slogan incroyablement précurseur « Appuyez sur le bouton, nous faisons le reste ». Eastman remplace les procédés de développement complexes et coûteux par un service intégré : un appareil photo simple et bon marché, des magasins où déposer ses pellicules et recevoir rapidement ses tirages photo. L’innovation s’appuie sur le pari d’une marge plus faible mais d’un usage et de ventes massives. Si le projet réussit, il crée une dépendance au sentier [1] : les autres acteurs du secteur s’alignent sur ce qui devient un standard.
De la voiture Ford T [2] produite en série au début du XXe siècle, en passant par l’Apple II [3] à la fin des années 1970, premier ordinateur personnel « clé en main » produit en série, on retrouve la même logique, le choix d’un objet standardisé associé à un service intégré.
L’irruption des IA et l’époqualisme *de Morozov
L’essai Pour tout résoudre, cliquez ici d’Evgeny Morozov en 2014 tentait une critique de l’effet d’emballement autour de l’Internet. Il revient sur le discours développé dès les années 1990 sur le « réseau des réseaux », alors décrit par de nombreux essayistes comme la matrice d’un monde nouveau. Evgeny Morozov propose dans son livre plusieurs concepts dont celui resté célèbre de solutionnisme, mais c’est le concept d’époqualisme que nous retiendrons ici. Ce concept désigne « la jubilation produite par la sensation de vivre une époque exceptionnelle, dans laquelle tout est nouveau et en rupture avec ce qui a précédé. » Il insiste : « Le débat actuel sur internet reste marqué par une amnésie technologique et une totale indifférence envers l’histoire. »
David Edgerton, un historien britannique des technologies, souligne que « lorsque nous pensons aux technologies de l’information, nous oublions le système postal, le télégraphe, la radio, la télévision. Quand nous célébrons la vente en ligne, nous oublions la vente par correspondance. Les débats sur le génie génétique et ses impacts (positifs comme négatifs) se déroulent comme s’il n’avait jamais existé d’autres moyens de modifier les plantes et les animaux, voire d’améliorer l’approvisionnement alimentaire ».
Ce que suggère Morozov, c’est d’ancrer les technologies dans leur contexte d’émergence même, et surtout, quand elles s’énoncent comme ruptures. Chaque cahotement de l’histoire est différent, mais aucun outil n’est une île. Les IA ne peuvent ainsi être dissociées de l’histoire de l’informatique – ça tombe sous le sens – et derrière elle de l’histoire du capitalisme de l’information, de l’ordinateur comme émanation du complexe militaro-industriel, du soft power américain dont l’Internet a été un des plus puissants outils, et du capitalisme tout court, obsédé par la dynamique du retour sur investissement (voir l’article « Hôtel télécom ».
Replacer dans le temps long des technologies permet de saisir en quoi elles sont continuités, radicalisation et/ou rupture dans les rapports entre humains et machines. Je tenterai donc une approche via trois axes : la captation des communs, l’offensive des politiques de l’offre, et la prolétarisation du travail. Cette triple approche a pour but de soigneusement éviter la fascination spéculativo-philosophique qui a saisi de nombreux observateurices.
Création et captation des communs numériques : l’Internet
On peut rétrospectivement considérer la mise en place du World Wide Web
WEB
Le web est un protocole spécifique de l’internet, permettant au départ d’accéder à des sites
web ou des ressources spécifiques, notamment au travers d’un système d’hyperliens renvoyant vers ces ressources.
, en 1991, comme une étape majeure de l’histoire des IA. Pour entraîner des logiciels il faut une quantité massive de données, et qu’elles soient accessibles, gratuites et interopérables. C’est le web≈, un outil développé puis mis à disposition par des puissances publiques [4], appuyé sur l’utopie d’un savoir partagé et du village global
Village global
Le village global ou village planétaire est une expression de Marshall McLuhan utilisée en 1967, pour qualifier les effets couplés de la mondialisation et de l’internationalisation des moyens de communication et des médias. Les distances semblent être raccourcies grâce à ces outils qui donnent l’impression de proximité et d’interdépendance planétaire.
≈, qui va permettre cette conversion du monde analogique vers sa version numérique, une contribution collective nécessaire à l’entraînement des IA. Ainsi, dès le début des années 1990, un nombre de plus en plus grand d’utilisateurices du réseau internet ont mis en ligne des images de leur environnement, de leur famille, de livres rares, rédigé des essais, récits, poèmes, et déposé ces informations accompagnées de métadonnées
Métadonnées
Les métadonnées sont des informations annexes à nos fichiers, nos navigations et appareils qui donnent des informations supplémentaires sur nos usages. Par exemple, les métadonnées d’une photographie peuvent être la date à laquelle elle a été prise ou retouchée, à quel endroit, avec quelles caractéristiques techniques. Les métadonnées d’un appel téléphonique mobile peuvent être l’endroit d’où il a été passé, son heure, le numéro des personnes appelant et appelées, le numéro de l’appareil et son modèle, la durée de l’appel, etc.
sur des serveurs épars. Une contribution publique des populations des pays du Nord global
Nord global
Sud global
Ces expressions désignent non pas des zones géographiques mais des rapports socio-économiques évolutifs souvent issus des anciens rapports coloniaux et post-coloniaux. Le Nord global regroupe les pays les plus dominants économiquement, les anciens « pays riches », pays du Nord ou pays occidentaux. Quand au Sud global, l’expression désigne des pays qui sont en situation de dépendance vis-à-vis des pays du Nord global, notamment en matière d’exportations de matières premières, de ressources non vivrières (café, cacao) et regroupe, avec des variations en fonction
des produits d’export ou du degré
de dépendance, les anciens pays
du Tiers-Monde, pays du Sud
ou « pays pauvres ».
Voir :
≈, appuyée par des infrastructures universitaires et étatiques, que l’entreprise Google et bientôt d’autres moissonneront dès 1997.
L’historien François Jarrige rappelle régulièrement que « l’histoire de la technologie est un champ de ruine permanent » [5]. Il veut dire par là que des propositions techniques s’inventent en permanence, basées sur la disponibilité locale et historique de ressources et de connaissances. Ces solutions ont des durées de vie parfois brèves, disparaissant dès que leur contexte d’apparition se modifie. L’historien prend l’exemple de machines agricoles basées sur la motricité animale, développées au 19e siècle, et qui disparaîtront avec l’imposition du charbon et de la vapeur.
Les solutions techniques qui s’imposent à grande échelle et plus durablement sont rétrospectivement perçues comme des évidences, mais sont dans les faits l’objet de rapports de force violents. Les débats actuels sur la place de la voiture individuelle dans nos sociétés en sont un exemple éclairant.
Le web ne devait pas inévitablement devenir la source du pillage de ses contenus par les agences de marketing et les développeureuses d’IA, mais les espoirs qu’il a engendrés ont quelque chose d’un peu naïf rétrospectivement. Pour toustes celleux qui ont suivi comme moi les débats autour de l’évolution du langage HTML HTML L’HTML est un langage utilisé depuis longtemps pour écrire des pages web. Il en pose la structure sémantique : titres, intertitres, paragraphes, etc. C’est le langage qui permet l’hypertexte, le système de liens propres au web, qui nous permet de passer de pages en pages. Nous utilisons actuellement la version 5 de ce « code html ». ≈, l’ironie est cruelle : le désir de rendre accessible pour des machines les contenus hétérogènes produits par les internautes peut être vu comme une des étapes nécessaires pour permettre l’absorption efficace des données du réseau par les algorithmes et accélérer la privatisation de leur exploitation.
Wikipédia, en tant que projet collectif et généreux, est une contribution majeure à l’entraînement des IA, par la qualité et le sérieux du travail de révision opéré dans un large nombre de langues. Sans ces millions d’heures de travail collectif, les startups californiennes n’auraient jamais pu entraîner les fermes d’ordinateurs à l’écriture de textes cohérents. L’utopie du partage de la connaissance, sous la forme d’un accès à large échelle à un réseau maillé et la mise à disposition d’espaces de stockage en expansion continue, était un moment nécessaire pour disposer d’une masse de données fiables et construire les grands modèles de langage (Large Language Model, LLM en anglais) comme ChatGPT.
Les entreprises comme OpenAI, en plaçant au centre de leur storytelling la création de l’algorithme Transformer (et bientôt, à n’en pas douter, d’autres algorithmes), minorent ce point central. Ce n’est pas une surprise : dans l’histoire du capitalisme, le discours libéral valorise l’activité au détriment des ressources. L’entreprise qui vend de l’eau en bouteille n’a pas payé l’eau, qui est une ressource gratuite. La différence ici est que la ressource qui a permis la vente des services de ChatGPT est du travail humain gratuit.
Hyperinflation de l’économie de l’offre
Il est important de percevoir la position centrale et préoccupante de l’informatique comme le prolongement de la politique de l’offre. Les moyens appliqués depuis 50 ans pour stimuler cette économie de l’offre sont connus : réduction des impôts sur les sociétés, réduction du coût du travail, coupes budgétaires dans les services publics. Depuis quelques dizaines d’années, un effet secondaire de ces politiques nous menace : l’accroissement des inégalités sociales, dues à la concentration grandissante de capitaux dans les mains d’une minorité d’acteurs privés et la financiarisation. Le phénomène des startups découle logiquement de cette mécanique de concentration : des capitaux gigantesques cherchent sans cesse de nouvelles opportunités. Les fonds d’investissement ou capital-risque ont proliféré en réponse à ce besoin de projets innovants promettant des retours sur investissement élevés.
La recherche fondamentale étant la plupart du temps très coûteuse, laborieuse et sans retours sur investissement rapide, la grande majorité des startups proposent des produits et services basés sur des technologies existantes, et souvent financées par de l’argent public. Au milieu des années 2010, des torrents d’argent ont été investis dans des startups dont les projets se sont basés sur le trio web/géolocalisation/micropaiement. Les véhicules de transport avec chauffeur (VTC), la livraison de repas, les sites de rencontre, les véhicules en libre service, pour ne prendre que quelques exemples évidents, sont des services s’appuyant sur ce trio, financés à perte par des mannes d’argent privé.
Ensuite, ce fut au tour du couple données massives/traitement algorithmique, sous le nom de big data, qui promit de révolutionner notre compréhension du monde par l’analyse de données récoltées auprès des États et du trafic sur les réseaux. Aujourd’hui, c’est le traitement de ces données par l’IA qui absorbe le trop plein de capitaux accumulés. Le lancement de ChatGPT auprès du grand public fait partie de cette stratégie de disruption déjà évoquée : être le premier à mettre à disposition du grand public un outil hors de prix à prix bradé pour créer une demande et s’accaparer le marché ainsi créé, tout en célébrant la créativité naturelle de la compétition.
Mais la politique de l’offre se heurte toujours à une crise de la demande : qui va consommer tous ces services ? Il y a une limite économique à la surproduction et de la même manière une limite humaine au concept de l’économie de l’attention. Si chacun de nos moments de vie est accompagné d’une gestion algorithmique, du lever au coucher, et même la nuit, comme c’est déjà le cas, comment encore vendre de nouveaux services ? La réponse à cette question se profile depuis quelque temps déjà : les futurs services ne seront plus destinés aux individus mais aux outils dont ils s’entourent.
Par exemple, imaginons une citoyenne du futur proche désirant disposer d’un document administratif. Iel énonce sa demande à un assistant personnel, qui compose un mail poli et structuré, lu par l’IA d’une administration publique qui l’analyse puis procède à diverses vérifications avant de dupliquer le document dans le portefeuille sécurisé d’une autre application, qui envoie un accusé de réception, que décrypte un assistant personnel qui le notifie enfin à saon cliente humaine. La technologie a ici permis d’accélérer la consommation de services, sans passer par l’attention de saon bénéficiaire, par le biais d’un nombre impressionnant d’intermédiaires. Une inflation de services facturés, sans parler de la demande en énergie et le stockage des informations produites par ces échanges.
Au moment où le coût technologique et la dépendance aux services privés deviennent critiques, voici un argument supplémentaire pour se détourner de l’économie de l’offre.
La valeur est créée par le travail des humaines
Le fantasme récurrent autour des IA postule que la créativité des algorithmes va dépasser (on pourrait dire transcender) le corpus d’origine : une fois nourris, les algorithmes vont non seulement imiter le travail humain mais aussi créer des formes nouvelles, spéculatives, capables de dessiner la trajectoire future de la créativité humaine dans tous les domaines.
Malheureusement pour ce fantasme, les humaines sont nécessaires à chaque étape des processus de production des algorithmes. Le choix des corpus d’entraînement, la construction des algorithmes, la correction des biais, l’écriture des prompts, le développement des interfaces, le choix parmi les milliers de résultats produits, les retouches ou assemblages : le travail humain est partout. Il est nécessaire pour distinguer dans un ensemble de signes insensés des informations signifiantes.
Ce travail sera toujours nécessaire et donc coûteux, puisqu’il engage le fameux « libre jeu des facultés de l’entendement » dont parlait Kant à propos du beau. C’est là que des stratégies malhonnêtes de mise au travail, dont Antonio Casilli a abondamment parlé dans son livre En attendant les robots, se mettent en place : comment dissimuler ce travail essentiel ? comment capturer la plus-value humaine sans la rétribuer ? C’est la question à laquelle travaillent probablement des milliers d’ingénieur..es. Et il est urgent de placer face à elle..ux autant de juristes si nous voulons protéger les populations les plus vulnérables de ce vol. Comme Casilli l’a analysé en effet, quelques-uns sont des hommes blancs aux conditions de travail confortables vivant dans l’hémisphère Nord, mais beaucoup d’autres travaillent dans des conditions misérables au bout de chaînes de sous-traitance volontairement obscures. D’autres enfin, dont nous faisons toustes partie, travaillent sans le savoir ou en acceptant les termes d’un contrat illisible coché en toute hâte en échange d’un service considéré comme commode ou incontournable.
On peut reconnaître la créativité des IA dans leur capacité à percuter entre eux des matériaux, des esthétiques, en créant des connexions nouvelles. Mais si cette façon de créer du nouveau est une partie de l’art, ce n’est qu’une de ses parties, et la plus mécanique encore.
Un algorithme ne peut pas inventer le rap à partir des données de populations racisées des villes américaines dont il aurait aspiré les productions antérieures. Il peut en revanche associer le rap avec le métal norvégien pour donner des assemblages étranges qui ne sont pas sans qualités, mais est-ce que ça fait sens pour qui que ce soit ?
L’art devrait plutôt être célébré comme une des forces propositionnelles répondant à de nouvelles situations sociales, économiques, politiques, et esthétiques.
Si on accepte cette base de définition des objets culturels, la conséquence est que les algorithmes génératifs doivent être constamment nourris de nouvelles créations pour être les assistants de cette tâche. Or le but des compagnies qui développent ces outils est de ne pas payer le coût de cette matière, mais au contraire de facturer l’accès à leurs services. L’accusation de vol est pleinement justifiée, et rejoint le concept d’extractivisme, malgré le mensonge malicieux qui consiste à plonger ces données numérisées dans le grand chaudron de « l’anonymisation » avant de nous servir une soupe rallongée à l’envi, prétendument déconnectée, découplée, de ses ingrédients.
La création comme processus collectif
Éthologie, anthropologie, sociologie : les sciences humaines replacent l’individu dans le collectif et le temps long, et ont beaucoup servi d’appui pour critiquer le spécisme, le capitalisme, la méritocratie et un certain nombre de concepts toxiques imposés par l’agenda d’un capitalisme essoufflé mais triomphant.
Du point de vue d’une sociologue, la créativité individuelle est une donnée importante mais marginale. Du point de vue anthropologique, c’est une question caduque. Du point de vue de l’éthologie, la création individuelle est un concept insensé.
ChatGPT s’appuie sur des langues qu’il n’a pas créées, qui sont des constructions collectives. Et il nourrit ses algorithmes avec des textes qu’OpenAI n’a pas créés, disponibles sur un réseau et des serveurs que la compagnie n’a pas conçus ni entretenus, produits par des individus qu’il n’a pas rémunérés (individus, administrations, etc.).
La politique néolibérale vit d’un paradoxe : elle affirme le monde comme globalisé en refusant d’accepter la gestion collective qui en découle, préférant l’idée d’un individu atomisé participant miraculeusement d’une harmonie créée par la logique immanente du marché.
Si, comme le proposent plusieurs penseureuses (Gaël Giraud par exemple), nous devons réintroduire les communs dans la pensée économique, alors nous devons aussi penser différemment la créativité, sa propriété et ses modes de financement. La santé est apparue comme un bien public lors de la récente pandémie, une propriété collective engageant individus et États. La créativité devrait être l’objet d’une prise de conscience similaire pour se défaire des génies isolé..es.
« Les historiens des idées restent fondamentalement attachés à la théorie du "grand homme". Ils ont tendance à attribuer tous les concepts marquants d’une époque à tel ou tel personnage extraordinaire – Platon, Confucius, Adam Smith, Karl Marx… –, sans voir que ces auteurs n’ont fait que proposer des contributions particulièrement brillantes à des débats qui avaient déjà cours dans les tavernes, les dîners mondains, les jardins publics ou même les salles de conférence, mais qui n’auraient jamais été couchés sur le papier sans eux. » [6]
Ce que révèlent les besoins de données des algorithmes d’entraînement, c’est que notre connaissance et notre inventivité n’ont rien d’individuel, ni rien de mystique. Il s’agit d’apprentissages et de répétitions basées sur un patrimoine commun. Ceci devrait nous conduire à donner raison aux défenseureuses des creative commons
Creative Commons
CC
Creative Commons (CC) est une association à but non lucratif dont la finalité est de proposer une solution alternative légale aux personnes souhaitant libérer leurs œuvres des droits de propriété intellectuelle standard de leur pays, jugés trop restrictifs. L’organisation a créé plusieurs licences, connues sous le nom de licences Creative Commons. Ces licences, selon leur choix, ne protègent aucun ou seulement quelques droits relatifs aux œuvres. Le droit d’auteur (ou « copyright » dans les pays du Commonwealth et aux États-Unis) est plus restrictif. (Wikipédia)
et des licences libres
Licences libres
Voir Copyleft. Toute œuvre de l’esprit (livre, logiciel, etc.) est protégée en Belgique par le droit d’auteur, dont une partie ne peut jamais lui être retirée, comme son droit moral d’être reconnu comme l’auteurice de son travail. Cependant l’auteurice peut décider de placer son œuvre sous une licence libre, ou Copyleft, c’est-à-dire qu’iel donne l’autorisation gratuite, à toustes et par avance, de disposer de son œuvre pour tous les usages (étude, modification, diffusion et même rémunération). D’autres licences, comme celle que nous utilisons (la _Creative Commons CC BY-NC-SA 4.0_), sont partiellement libres, car l’autorisation accordée ne permet pas de revendre les contenus contre rémunération, mais seulement de les partager. Cette licence oblige aussi à mentionner, en cas de reproduction et diffusion, le nom de l’auteurice. Elle autorise la modification du contenu sous réserve que les modifications soient rendues visibles.
: le temps de travail devrait être rémunéré, et non la propriété intellectuelle, brèche ouverte à tous les rapports de force les plus brutaux. Si on appose ce raisonnement aux outils algorithmiques dits d’IA, seul le temps de travail de développement des ingénieureuses, et les frais requis à la production des contenus générés devraient être payés. Le reste est une production collective qui ne peut être associée à des individus. Mais une pression politique en faveur du droit d’auteur..ice et l’imposition de l’innovation comme champ autonome, d’une puissance jamais atteinte auparavant, permet de repousser cette évidence.
Pour lutter contre l’accaparement de ce bien collectif par des intérêts privés, le domaine public et les licences issues de l’informatique (creative commons et licences libres) sont des armes encore faibles. Comment traduire l’idée de l’inventivité sociale, politique et artistique en textes de loi, en pratiques collectives ? C’est une des questions que ce qu’on appelle intelligence artificielle rendent urgentes.
Pour un futur commun
On le voit, les algorithmes repris sous le terme d’IA ne sont qu’une des étapes – certes majeure — dans une dynamique combinant transformation du commun en propriété privée, dans l’orientation de la recherche par une politique de l’offre déconnectée des besoins, et le durcissement du rapport entre capital et travail en défaveur de ce dernier.
Cette dynamique semble garantir la continuité du capitalisme. Une croissance infinie dans un monde fini, la formule est régulièrement utilisée pour critiquer son rêve impossible. En réponse, le capitalisme se fait granulaire : les technologies numériques permettent de fragmenter le travail en des milliards de micro-tâches sans cesser de concentrer les moyens de production et les profits.
Mais à chaque changement d’échelle, la consommation d’énergie et de ressources augmente, ajoutant la déstabilisation des écosystèmes aux déséquilibres sociaux. Une réponse politique viable passera nécessairement par une transformation profonde des modèles économiques dominants et la construction de politiques basées sur la rémunération juste du travail, la prééminence du commun et la sobriété des moyens de production.
Seuls des changements opérés à l’échelle des États peuvent produire les effets attendus, via des cadres de loi. Il faut constater que nous n’en sommes pas encore là, en grande partie parce que… c’est un travail qui sera produit par des humaines dans un rapport de force avec d’autres humaines et les organisations dont iels s’entourent, et qu’il s’agit d’infléchir une trajectoire vieille de plus de 500 ans, celle du capitalisme.
≈Stéphane Noël

