Promesse d’une productivité accrue dans le domaine de la Culture et des ICC (Industries culturelles et créatives), l’intelligence artificielle générative – LLMs et générateurs d’images – est rarement analysée à travers les répercussions qu’elle entraîne. Pourtant, derrière ces outils se cache une réalité peu reluisante : précarisation des économies créatives, mécanique d’uniformisation des esthétiques, impacts sociaux et environnementaux, … Tentative de rééquilibrage d’un débat trop souvent vu par le petit bout de la lorgnette.

White Cloud d’Emmanuel Van Der Auwera – Photo © Emmanuel Van Der Auwera
Depuis plusieurs mois, les Big Tech (OpenAI, Microsoft, Amazon, Google ou Facebook) charbonnent pour commercialiser leurs modèles d’IA générative (ChatGPT, Gemini ou Midjourney, entre autres) sur un marché ultra concurrentiel. L’argument “better, faster, stronger” est désormais largement infusé dans l’inconscient collectif. Dans ces conditions, les paroles de spécialistes pleuvent : l’ère de la GenAI sera comparable aux révolutions de l’imprimerie, de l’automobile ou d’Internet. Rares sont celles qui requalifient les termes du débat et interrogent l’innovation réelle de l’IA générative. Autrement dit, sur quels critères pouvons-nous juger sa portée ?
Précarisation de la chaîne de valeur
Les modèles d’IA sont entraînés sur d’énormes quantités de données web (notamment sa technique la plus connue, le web scraping), collectées avec le consentement – plus ou moins éclairé – des usager.e.s. Pendant des années, les entreprises ont ainsi pillé les réseaux sociaux, Wikipédia ou d’autres bases de données scientifiques sans verser un centime de droit d’auteur. Bien que la récente publication de l’AI ACT pour le Droit européen tente d’apporter des réponses (protection des données et obligation pour ces IA génératives de publier un résumé détaillé des sources utilisées pour l’entraînement), le mal semble durable et le droit d’auteur, dans sa conception originelle, est peut-être définitivement condamné. Les watermarks “anti IA” (ces informations subtilement intégrées dans une image, un texte ou une vidéo, et utilisées pour protéger les créations contre l’exploitation non autorisée) et d’autres projets comme le site Have I Been Trained? permettant aux artistes de faire retirer leurs images des bases de données des modèles d’IA comme Stable Diffusion (générateur d’images) sont intéressantes mais ont finalement peu d’impact réel. Encore plus directement, dans les ICC comme dans le spectacle vivant, une série de métiers risque d’être fortement impactée par la démocratisation des outils d’intelligence artificielle générative, à commencer par les traducteur.rice.s ou les scénaristes situé.e.s en première ligne de front. Notons qu’à ce jour, aucune étude dédiée aux ICC n’a ciblé les métiers les plus menacés de disparition, les filières ayant toutes des caractéristiques spécifiques. Mais la règle observée d’un secteur à l’autre demeure relativement élémentaire : plus les tâches d’un travail sont segmentées, plus elles sont automatisables. Le spectacle vivant n’échappera pas à cette règle. Qui plus est, c’est surtout en observant la structure de la chaîne de valeur de la création que nous comprenons la mécanique de précarisation. Frédéric Young, délégué général pour la Belgique de la SACD (Société des auteurs et compositeurs dramatiques) et délégué général de la SCAM Belgique (Société des auteurs et autrices de littérature et de documentaire, organisme regroupant environ 4 000 auteur.rice.s résidant en Belgique francophone) partage son analyse : “Il est important de bien comprendre le business model des artistes. La création d’œuvres originales n’est pas rémunératrice par rapport au temps passé (recherche, tests de création, …) ; dans le jargon, nous appelons cela le temps invisibilisé. Les auteur.rice.s peuvent se permettre cette faible rémunération car en parallèle il.elle.s ont d’autres contrats où il.elle.s doivent exécuter des tâches normalisées qui sont davantage rémunératrices. Or ces tâches vont désormais être confiées à l’IA. Cela perturbe l’équilibre déjà précaire de la création”. En parallèle, la démocratisation des outils d’IA générative pourrait être synonyme d’un transfert des tâches de production à la charge des plus précaires : les créateur.rice.s. Là où un.e producteur.rice de musique, de théâtre ou de cinéma pouvait faire appel à plusieurs métiers (graphistes, vidéastes, rédacteur.rice.s, …), nous pourrions assister à un report en direction des artistes qui assumeront dorénavant ces charges techniques. Ces inquiétudes partagées dans les milieux professionnels amènent à s’interroger sur la soutenabilité économique de l’intelligence artificielle alors que les entreprises phares de l’IA générative sont aujourd’hui valorisées à plusieurs milliards de dollars (150 pour OpenAI en septembre 2024 ; 6 pour Mistral AI, l’IA made in France, en juin 2024, par exemple). Une concentration des richesses, dopée à coup de levées de fonds, qui contraste avec une précarité enracinée dans le monde de la Culture.

White Cloud d’Emmanuel Van Der Auwera – Photo © Emmanuel Van Der Auwera
Vers une tendance d’uniformisation
Dans le domaine de la Culture justement, l’une des frayeurs les plus verbalisées est, a priori, facilement balayable : non, l’IA ne tue pas la créativité. D’abord car ce n’est jamais l’outil qui fait l’artiste mais plutôt la capacité qu’a ce dernier à conceptuellement le mettre en œuvre. Des artistes comme Justine Emard, Rocio Berenguer ou Memo Akten illustrent parfaitement comment une collaboration avec ces outils “intelligents” est possible, notamment dans le spectacle vivant. Ensuite parce que l’art se situe à l’opposé du concept de gain de productivité. Le journaliste Hubert Guillaud, créateur du média Dans les algorithmes, tord le cou à ce mythe dans un des articles publiés : “Pour les entreprises, l’efficacité est supérieure au but : elle est le but qui invalide tous les autres. Quand le but de l’art, de l’éducation ou de la pensée est d’être confronté à l’intentionnalité, à la preuve irréfutable de la subjectivité”. Néanmoins, la particularité de l’IA générative invite à observer les effets de sa mécanique algorithmique. Sur son journal en ligne,(1) l’artiste Grégory Chatonsky appelle à ne pas confondre “l’IA avec le numérique, la programmation, la génération, la modélisation et les systèmes experts”. Aujourd’hui, “avec les réseaux de neurones artificiels, […] il ne s’agit plus de modéliser un algorithme mais de fournir des données binaires en grand nombre afin que le logiciel calcule une probabilité statistique qui lui permet de reconnaître une forme variable (sensibilité artificielle) et de la produire (imagination artificielle). Nous pouvons alors reconnaître une forme que nous n’avons jamais vue mais qui ressemble à des formes passées. Les réseaux de neurones automatisent la production du mimétisme, de la ressemblance, de la représentation”. Les images générées tendraient-elles vers une esthétique commune ?
La tendance à l’hyper réalisme est ainsi soulignée par de nombreux.euses observateur.rice.s. Joséphine Louis, commissaire d’exposition spécialisée dans l’art numérique et fondatrice de la Funghi Gallery, note qu’“avec l’avènement de technologies plus récentes comme Stable Diffusion et Midjourney, on observe une transformation notable des esthétiques. Les images produites tendent à être plus lisses et maîtrisées, avec des rendus souvent très polissés. Les couleurs peuvent être intensifiées au point de paraître artificielles et les textures sont fréquemment absentes. Ces nouvelles esthétiques, bien que techniquement impressionnantes, posent des questions sur l’originalité et la profondeur artistique de ces créations. La récurrence des visuels axés uniquement sur une culture occidentale est également problématique”. La perfectibilité des premiers modèles d’IA générative était, pour les artistes, une variable subjective intéressante à explorer. C’est ce que confie Justine Emard dans un article publié sur HACNUMedia(2) : “J’entends plusieurs artistes manifester leur intérêt pour des modèles datant de 2019-2020. Ces modèles créaient peut-être de la bouillie de pixels mais ils étaient justement intéressants pour leur imperfection, pour leur grain”. Le perfectionnement des modèles et le verrouillage de versions souvent propriétaires – ou très partiellement open source comme le révèle l’étude publiée en 2023 par l’Université de Radboud(3) aux Pays-Bas, notant les modèles à travers quatorze caractéristiques – ont effacé cette imprévisibilité pour tendre vers cet hyper réalisme. Au-delà de cette uniformisation esthétique, Hubert Guillaud interroge, toujours dans son média, les limites de nos représentations : “Quand on regarde les résultats de mêmes prompts réalisés par des dizaines ou des centaines de personnes sur des outils semblables ou similaires, ce qui marque le plus n’est pas leur ressemblance esthétique, c’est la manière de produire des représentations très proches les unes des autres, jusqu’à saturer totalement notre regard d’images dont les compositions semblent semblables. Ces productions nous montrent surtout combien nos représentations sont extrêmement normées par des techniques de cadrage, de représentations sociales qui s’épuisent très vite à force d’être répétées”.
Enfin, notons qu’un dataset globalisé sur lequel s’appuient les modèles d’IA générative pourrait avoir un effet pervers : les jeux de données issus du web scraping ou du web crawling (technique d’indexation pour explorer automatiquement le web) intègrent progressivement des contenus provenant des modèles d’IA générative, polluant ainsi les modèles existants. Une boucle de rétroaction qui conduit, inévitablement, à des effets de standardisation.

White Cloud d’Emmanuel Van Der Auwera – Installation view A Thousand Pictures of Nothing, Harlan Levey Projects, 2023 – Photo © Adriaan Hauwaert
Bombe écologique et sociale
L’IA générative ne se limite pas aux enjeux artistiques et culturels. Elle intègre, dans sa chaîne de production, une logique d’exploitation capitaliste, à commencer par celles et ceux qu’on nomme les “travailleurs du clic”, nouveau prolétariat numérique, précaire et invisible principalement situé à Madagascar ou en Asie du Sud-Est. L’artiste Quentin Sombsthay prépare actuellement son prochain documentaire, Image Latente, qui retrace les conditions de travailleur.euse.s basé.e.s à Nairobi au Kenya. Leur rôle est “d’ajuster les modèles d’IA. C’est une étape incontournable si on cherche de la précision”, explique-t-il. Il faut en effet comprendre qu’un modèle est nourri par un jeu de données (dataset) puis est précisé grâce à des étapes de réajustement, d’évaluation et d’amélioration. “Dans de nombreux cas, l’affinage humain reste plus efficace et surtout plus rentable pour trier des données. En général, ils interviennent après une première passe automatique et viennent corriger ou détailler des données. Pour donner un exemple concret, il a fallu que des travailleurs du clic lisent et trient des textes au contenu violent afin que ChatGPT puisse se censurer et ne pas avoir de propos haineux et racistes”, poursuit le réalisateur français. Les conditions pour ces travailleur.euse.s sont désastreuses : “Pendant 10 h quotidiennes, les employé.e.s sont confronté.e.s à du contenu violent et pornographique, sans réel soutien psychologique, mêlé à une pression managériale et un manque de transparence sur les tâches qu’il.elle.s doivent effectuer. Beaucoup souffrent aujourd’hui de dépression et de troubles de stress post-traumatique”. Le tout pour un salaire famélique.
Les conditions de travail dans les mines de terres rares nécessaires à la fabrication des équipements ou des infrastructures sont tout aussi dramatiques. Dans son œuvre White Cloud,(4) l’artiste Emmanuel Van Der Auwera documente la vie d’un ouvrier d’une mine en Mongolie intérieure. “On ne peut pas accéder au site minier. Alors je me suis appuyé sur les propos d’un ouvrier que j’ai trouvés sur TikTok. J’ai compilé ses témoignages, ce sont ceux d’un mineur solitaire à la recherche d’un avenir meilleur”, explique l’artiste belge qui a généré les images à partir d’une IA. Une mise en abîme comme pour mieux appuyer les paradoxes de notre monde. Il précise le rôle de ces minerais : “Les terres rares sont essentielles pour leur propriétés physiques et chimiques. En 2014, 95 % des terres rares qui entraient dans la manufacture des équipements numériques venaient de Baiyun Obo District, en Mongolie intérieure. Aujourd’hui, ce pourcentage est d’environ 80 %. Cet endroit est un point névralgique de la chaîne du numérique mondial. Cet ensemble de mines laisse entrevoir des conséquences environnementales désastreuses, notamment lors de l’extraction et du raffinage de ces terres”. Un raffinage qui requiert de nombreux solvants et acides, ainsi que d’énormes quantités d’eau et d’énergie. Dans une autre tonalité, cyberpunk cette fois, la compagnie Eolie Songe, dirigée par Thierry Poquet, propose une réflexion tragi-comique sur ces terres rares, dans une pièce éponyme créée en 2022.
Si de manière unanime, les expertises convergent vers un poids environnemental du numérique exponentiel, les chiffres sont difficilement estimables, notamment à cause du manque de transparence des acteurs de l’IA sur la nature de leurs modèles et leurs infrastructures. Par exemple, un modèle comme ChatGPT a nécessité plusieurs centaines de milliers de micro-processeurs (GPU) à chaque entraînement. Bien qu’il n’existe aucune déclaration officielle, plusieurs sources estiment que l’entraînement de GPT-4o a probablement nécessité au moins 25 000 GPU de haute performance pendant plusieurs mois. En 2023, l’association Data for Good a tout de même publié un rapport(5) éclairant sur les impacts environnementaux de l’IA générative. La méthodologie reposait sur plusieurs indicateurs (émissions de gaz à effet de serre dits “GES”, consommation énergétique, utilisation de l’eau, ressources minérales et métalliques, réduction de la biodiversité) et sur des scénarios d’usage (par exemple, 13 millions d’utilisateur.rice.s actif.ve.s par jour faisant chacun.e quinze requêtes…). Le seul critère GES est pour le moins vertigineux : l’utilisation de ChatGPT (GPT-3) en janvier 2023 aurait eu un impact de 10 113 tonnes CO2eq, soit sur une année complète environ 122 351 tonnes CO2eq. L’équivalent de plus de 68 000 vols Paris-New York aller-retour ! Le rapport note également que seuls ont été évoqués “les impacts liés à GPT-3. Or, selon les dernières rumeurs, GPT-4 serait composé de huit sous-modèles, chacun plus gros que GPT-3 pour un nombre total de paramètres d’environ 1 760 milliards. L’énergie consommée et les impacts à l’usage d’un tel modèle sont probablement entre dix et cent fois plus importants”.

White Cloud d’Emmanuel Van Der Auwera – Installation view A Thousand Pictures of Nothing, Harlan Levey Projects, 2023 – Photo © Adriaan Hauwaert
Les effets indirects s’observent également à des endroits parfois inattendus. Une enquête(6) parue dans La Tribune en septembre 2024 dévoile que jusqu’à 80 % des datacenters existants seraient inadaptés aux besoins de l’IA, accélérant l’obsolescence des fermes actuelles. Une tension énergétique mais également foncière, comme l’explique la journaliste Marine Protais : “Pour tenter de répondre à la consommation insatiable des grands modèles d’OpenAI et Meta, ces infrastructures deviennent de plus en plus gigantesques, créant des tensions inédites sur le foncier, notamment à Marseille (ndlr : la ville est le septième hub mondial(7) du trafic Internet)”.
Malgré les arguments avancés dans cet article – et qui mériteraient certainement plus de nuances et de contradictions –, il ne s’agit pas tant de prendre, a priori, position en faveur ou en défaveur de l’IA mais plutôt d’aborder des faits rarement évoqués dans les débats. Parce qu’une transition numérique ambitieuse, dans le domaine de la Culture et des ICC comme partout ailleurs, ne pourra se faire que de manière éclairée et collective.
(1). https://chatonsky.net/confusion/
(2). https://hacnum.org/hacnumedia/choisir-un-modele-dia-le-casse-tete-des-artistes-1-2/
(3). https://arxiv.org/pdf/2307.05532
(4). https://vimeo.com/860601853
(5). https://dataforgood.fr/iagenerative/
(7) www.ladn.eu/tech-a-suivre/septieme-hub-mondial-du-trafic-internet-cest-marseille-bebe/