- La critique politique de l’ « intelligence artificielle générative » développée dans De la bêtise artificielle : pour une politique des technologies numériques s’inscrit dans la continuité des analyses de Bernard Stiegler, sur lesquelles tu as beaucoup travaillé par ailleurs, notamment dans un autre livre paru la même année, intitulé Penser avec Bernard Stiegler : de la philosophie des techniques à l’écologie politique. Les deux dimensions qui semblent fondamentales dans tes réflexions sont la conception pharmacologique de la technologie et la « nouvelle critique de l’économie politique » développée par Stiegler. La conception pharmacologique est issue de la lecture du Phèdre de Platon, dans lequel Platon affirme que l’écriture, qui permet aussi de sauvegarder la mémoire et de transmettre les savoirs, risque aussi de figer la pensée et d’externaliser la mémoire, asséchant la vitalité du dialogue. C’est la figure du pharmakon : à la fois poison et remède. Par ailleurs, dans Pour une nouvelle critique de l’économie politique (2009), Stiegler remarquait notamment que le développement technologique et industriel pouvait conduire à une « bêtise systémique », qui provenait d’une dépossession des savoirs. Selon lui, cette dépossession concernait tant les personnes en bas de l’échelle sociale, qui aurait un savoir faire, que les élites, qui aurait un savoir théorique. Les « prolétaires du système nerveux sont tout autant prolétarisés que les prolétaires du système musculaire », disait-il. En quoi ces analyses peuvent-elles nous aider à comprendre les enjeux des « intelligences artificielles génératives » que tu étudies dans le livre ?
- L’originalité de la « nouvelle critique de l’économie politique » de Stiegler consiste à articuler les réflexions de Platon à celle de Marx, ce qui constitue évidemment un geste très provocateur du point de vue de l’histoire de la philosophie – sans même évoquer les siècles qui les séparent, Platon est considéré comme le penseur idéaliste par excellence alors que Marx est considéré comme le fondateur du matérialisme historique. Mais le geste de Stiegler consiste précisément à dépasser cette alternative, notamment à travers les notions de pharmakon et de prolétarisation. Stiegler explique que la question du pharmakon posée par Platon est déjà-la question de la prolétarisation, c’est-à-dire la question de l’extériorisation d’un savoir vivant (la mémoire, l’esprit) dans un support technique (l’écriture, la matière) : de même que le citoyen extériorise sa mémoire dans l’écriture, cesse de la pratiquer et s’en voit ainsi dépossédé (Platon), de même, l’artisan extériorise ses savoirs-faire dans la machine-outil, cesse de les pratiquer et s’en voit ainsi dépossédé, devenant du même coup un ouvrier prolétarisé (Marx).
Pour Stiegler, ce phénomène de prolétarisation ne concerne pas seulement les savoir-faire, mais aussi les savoir-vivre et les savoir-penser : aujourd’hui, force est de constater que ce ne sont plus seulement les savoir-faire qui sont extériorisés dans les machines outils, mais aussi les savoir-penser qui sont extériorisés dans les systèmes algorithmiques. Par exemple, lorsque l’algorithme de recommandation d’une plateforme me recommande un contenu, je délègue ma capacité de décision à un système de calcul automatisé. Il s’agit d’une nouvelle phase dans le processus d’extériorisation, d’automatisation et de prolétarisation des savoirs.
Aujourd’hui, avec l’IA générative, ce phénomène de prolétarisation des savoir-penser se poursuit et c’est cette nouvelle étape que j’essaie de décrire dans le livre : il me semble que l’on assiste aujourd’hui à la délégation de nos capacités expressives aux systèmes algorithmiques, qui génèrent des textes (des sons ou des images) à notre place. Des calculs probabilistes sur des quantités massives de données se substituent ainsi à l’exercice des facultés noétiques de mémoire, de synthèse et d’imagination qui sont à l’oeuvre dans les activités d’expression et qui sont éminemment singulières. À l’inverse, les calculs probabilistes effectués sur des quantités massives de données par les grands modèles de langage (LLM) renforcent les moyennes et les biais majoritaires, en éliminant les singularités idiomatiques (les écarts, les exceptions, les improbabilités). Cela risque de conduire à un langage très stéréotypés et uniformisé, qui sera aussi formaté en fonction de la manière dont les systèmes ont été entraînés, le plus souvent par des entreprises privées issues de la Silicon Valley, qui ont des agendas politiques et économiques bien déterminés.
- Mais pourquoi il n’y aurait pas dans ce cas un effet rebond : Chat-GPT ne va peut-être pas remplacer le langage et le discours, mais simplement les démultiplier, de même que les visioconférences et l’image en général n’ont pas remplacé la communication écrite. Tout s’empile plutôt que de se remplacer : peut-on vraiment tabler sur un essoufflement ?
- Selon moi, la question est moins celle du remplacement que celle du contrôle sur les symboles circulant dans les milieux médiatiques numériques et donc dans les esprits. Je crois que c’est la question des industries culturelles et du conditionnement des esprits qu’il faut poser ici et non seulement celle du remplacement des humains par les machines (qui n’est pas une question très pertinente à mon avis, comme je l’explique à la fin du livre). Par exemple, le cinéma hollywoodien n’a pas remplacé l’imagination : il a conditionné les imaginaires, et une fois associé à l’industrie du tabac, il a incité à la consommation de cigarettes. Avec l’IA générative, il me semble que nous sommes confrontés à un un nouveau type de psychopouvoir ou de neuropouvoir, c’est-à-dire, à une nouvelle forme de conditionnement de notre langage et de nos symboles, donc de nos esprits.
Dans le livre, je cite une étude qui montre que des scientifiques utilisant ChatGPT pour écrire leurs papiers ont ensuite mobilisé de manière amplifiée certaines des expressions générées par le service numérique : nous risquons d’adopter les catégories de langage et les stéréotypes symboliques véhiculés par ces dispositifs et de conformer nos esprits aux idéologies des entreprises (souvent californiennes ou chinoises) qui les développent, selon des biais (linguistiques, politiques, statistiques) qui sont pourtant très problématiques. Nous risquons ainsi d’intérioriser très vite certaines catégories ou certains symboles, certaines manières de parler ou d’écrire qui sont aussi des manières de penser et de réfléchir… Aussi, nous critiquons les idéologies politiques des géants du numérique, mais nous utilisons quotidiennement et par millions les technologies qui implémentent ces idéologies, comme si ces technologies n’avaient aucun effet sur nous, or ces technologies ne sont pas neutres ! Aucune technologie n’est neutre, et encore moins des machines à écrire automatisées chargées de biais.
Il existe aussi des risques d’uniformisation et de standardisation importants, sous l’effet de l’exploitation probabiliste de la mémoire collective numérisée, qui se voit ainsi réduite à un stock ou un capital informationnel dont il s’agit d’extraire de la plus-value, en prédisant les séquences de signes les plus probables et les plus adaptées. Pour comprendre ce phénomène, il peut être utile de se référer aux travaux de Frédéric Kaplan sur le capitalisme linguistique [2] : Kaplan a montré comment les logiciels d’auto-complétion intégrés aux moteurs de recherche contribuaient à uniformiser les pratiques linguistiques en incitant les utilisateurs à se conformer aux expressions les plus probables. Les logiciels de génération fonctionnent sur la même base technologique que les logiciels d’auto-complétion : la prédiction algorithmique de séquence de signes probables, qui écrase les expressions originales, alors même que c’est à partir de ces expressions originales et idiomatiques que les langues peuvent se diversifier et évoluer. Et il en va de même pour les pratiques artistiques, scientifiques, philosophiques, qui ne se diversifient et ne se renouvellent qu’à partir des écarts, des exceptions, des improbabilités – et non à travers la répétitions des idées reçues, des opinions majoritaires ou des clichés.
Bien sûr, la génération automatique va démultiplier les contenus, mais démultiplier les contenus de mauvaise qualité peut être très dangereux car cela risque d’invisibiliser les contenus pertinents : le fait d’inonder la toile de contenus sensationnels et insignifiants est une stratégie politique dans le contexte de la post-vérité, qui permet de créer de la confusion et de la diversion.
- Effectivement, dans le livre, tu identifies plusieurs limites inhérentes aux IA génératives sur le plan symbolique : d’une part la machine sape les capacités cognitives ou noétiques qui ont rendu son émergence possible et d’autre part, la machine ne peut pas éternellement carburer avec des contenus eux-mêmes automatiques, qu’elle a elle-même produit. C’est l’horizon d’un effondrement des grands modèles d’IA, peux-tu nous l’expliquer ?
- Oui, j’essaie d’envisager les conséquences des IA génératives à la fois en termes d’écologie environnementale (épuisement des ressources naturelles/énergétiques) et d’écologie mentale et sociale (épuisement des ressources culturelles ou symboliques). De mon point de vue, la démultiplication des contenus automatisés pourrait se révéler problématique pour deux raisons au moins. La première est le risque de la défiance généralisée : serons-nous encore capables de croire en ce que nous lisons, voyons ou entendons lorsque la majorité des contenus seront générés automatiquement, et que nous saurons que chacun des contenu auquel nous sommes confrontés a sans doute été trafiqué ? La seconde est le problème de l’entropisation culturelle : les modèles entraînés sur des contenus déjà automatisés seront-ils encore capables de générer des contenus signifiants ou bien les contenus deviendront-ils de plus en plus appauvris et de moins en moins pertinents, à l’image de ce que l’on constate déjà aujourd’hui avec le phénomène de l’« IA slop » ? Cet appauvrissement des milieux symboliques numériques et cette défiance à leur égard me semble très dangereuse politiquement.
Un article paru dans la revue Nature l’année dernière évoquait l’effondrement des modèles [3], lié au fait que lorsque ceux-ci effectuent leurs calculs à partir de contenus déjà automatiquement générés, la qualité de leurs résultats est dégradée. Cela me semble assez logique, puisque comme je l’expliquais, les calculs de probabilités renforcent les biais et les majorités : ils ne peuvent simuler des contenus humains qualitatifs que s’ils sont nourris par des contenus humains de bonne qualité, mais si les algorithmes sont entraînés sur des contenus de mauvaise qualité, alors ils générerons des contenus de mauvaises qualité également, à partir d’une recombinaison statistique de leurs éléments. Faire des calculs de probabilités sur des contenus déjà issus de calculs probabilistes, c’est un peu comme faire la photocopie d’une photocopie d’une photocopie : au bout d’un moment, la qualité est dégradée car le contenu original n’est jamais renouvelé.
Or dans le cas des IA génératives, qui sont en fait des « IA extractives [4] », comme l’expliquent Jean Cattan et Célia Zolynski, les contenus humains ont été exploités sans autorisation et sans rémunération de ceux qui les avaient produits (auteurs et créateurs d’œuvres numérisées, mais aussi contributeurs à une encyclopédie collaborative comme Wikipédia ou encore utilisateurs des réseaux sociaux). De plus, aucun mécanisme de redistribution des richesses n’est envisagé pour valoriser la production de contenus originaux. Dès lors, les contenus automatiques auront vite fait d’envahir la toile et les systèmes de s’entraîner sur leurs propres productions automatisées...
- Tu soutiens aussi, dans le livre, que cette automatisation et cette uniformisation du langage se révèlent d’autant plus problématiques dans le contexte de développement des « agents conversationnels » et de « compagnons virtuels », qui pourrait conduire à ce que tu décris comme une automatisation de l’altérité. Tu expliques que ces services numériques risquent de devenir des doudous régressifs car ils impliquent une relation de dépendance émotionnelle : le chatbot nous fait des éloges, nous rassure, nous renforce dans nos opinions. D’ailleurs, tu expliques que ces dispositifs se fondent sur la théorie psychologique du « regard positif inconditionnel » et se présentent comme des prétendus remèdes à la solitude de leurs clients.
Cela fait écho à la double dimension de la notion de fétichisme : d’un côté, la dimension clinique et psychanalytique, à savoir la compensation de la peur de la rupture ou de la castration, le fétiche qui est un intermédiaire mais qui se met à être adoré comme tel ; et d’un autre côté, le fétichisme de la marchandise, moins affectif que social, en lien avec le marché. Le fétichisme est la forme marchande de la médiation : les gens entrent en contact avec des choses au lieu d’entrer en contact entre eux, les rapports entre des gens sont médiés par des rapports entre ordinateurs. Mais alors, ne pourrait-on pas considérer que c’est la solitude qui est le véritable problème, plutôt que les outils pour y remédier ?
- Bien sûr, la solitude est un problème : d’où la nécessité d’envisager des « remèdes » sociaux et politiques à la solitude, et d’éviter le technosolutionnisme qui nous fait considérer toute innovation comme un remède sans voir les risques d’intoxication… La perspective pharmacologique est essentielle ici : à force de nous entretenir avec nos chatbots, présent 24h/24, toujours d’accord avec nous, toujours de notre côté, ne risquons-nous pas d’abandonner nos savoir-sociaux les plus fondamentaux ? Se confronter à l’autre, n’est-ce pas d’abord endurer l’expérience d’une non-coïncidence et d’une séparation, à partir desquelles seulement une relation peut se tisser ? Aimer l’autre, n’est-ce pas aussi aimer sa manière de nous résister et de ne pas nous ressembler ?
Il me semble que ces dispositifs qui prétendent répondre au problème de la solitude ne peuvent que l’aggraver, en provoquant une automatisation de l’altérité, c’est-à-dire, en court-circuitant les liens collectifs à travers des miroirs numériques, qui engendrent une confusion entre reflet algorithmique de soi et rapport social à l’autre : c’est le mythe de Narcisse qui est implémenté dans ces technologies ! Comme Narcisse, qui prend son reflet pour une autre personne et qui en tombe amoureux, certains individus tombent aujourd’hui amoureux de leurs chatbots qui ne sont que de reflets algorithmiques d’eux-mêmes. Je ne crois pas que ces robots conversationnels constituent des remèdes à la solitude, mais plutôt des industries faisant de la solitude un nouveau marché : les entreprises de compagnons IA ont tout à gagner dans le fait que les utilisateurs tombent amoureux de leurs produits. N’est-ce pas le rêve de toute entreprise qui se plie à la loi du capitalisme consumériste ?
L’ idée du fétichisme de la marchandise me semble très pertinente ici, effectivement : ce qui est peut-être nouveau dans la configuration actuelle est que non seulement les rapports avec des choses remplacent les rapports sociaux, mais les rapports avec des choses sont confondus avec des rapports sociaux – il me semble qu’une nouvelle forme de « fétichisme » voit le jour ainsi.
- Dans la perspective marxiste dont hérite Stiegler, la technique n’apparaît jamais de nulle part, mais toujours depuis des évolutions internes à la société. Pourtant, dans le mythe de Prométhée, que Stiegler évoque également et que tu rappelles dans le livre, la technique apparaît comme venue des dieux (Prométhée la vole pour la donner aux mortels) donc comme exogène, extérieure à la réalité sociale. N’y a-t-il pas une contradiction ici ?
- Je pense qu’il n’y a pas de contradiction mais que ces discours se situent sur des plans différents. La mythologie n’est pas une description d’un phénomène réel/historique : je ne crois pas du tout que d’un point de vue historique, la technique soit tombée du ciel, apportée par un titan qui l’aurait volée aux dieux… Si je devais parler de l’origine historique ou sociale de la technique, je me référerais plutôt aux travaux de paléoanthropologie de André Leroi-Gourhan qu’aux mythes… Mais je crois que le mythe de Prométhée nous dit tout de même quelque chose, non pas sur l’origine historique de la technique, mais sur la signification des liens entre humanité et technicité : il n’y a jamais eu d’humain sans technique, les techniques sont des organes artificiels dont nous ne pouvons pas nous passer, un humain pré-technique n’a jamais existé. En ce sens, le mythe grec rejoint les acquis de la paléolanthropologie, et même les thèses de Marx, qui, bien avant Leroi-Gourhan, avait défini l’humain comme un vivant technique lui aussi, invitant même à faire l’histoire de l’évolution des organes artificiels comme Darwin avait fait l’histoire de l’évolution des organes naturels…
- Dans la théorie des machines de Marx, celles-ci ne naissent pas du cerveau d’un inventeur génial mais sont un produit de la division du travail. On peut mécaniser les tâches parce qu’elles ont été simplifiées et divisées auparavant. L’idée importante ici est que la prolétarisation était déjà-là et que la machine va la renforcer. Dans L’Oeil du Maître, Matteo Pasquinelli reprend cette thèse pour parler de la naissance de la mécanisation du calcul : c’est via la division du travail que Babbage a l’idée de la machine à différence, ancêtre de l’ordinateur. Qu’en penses-tu ?
- Je suis tout à fait d’accord avec la thèse de Pasquinelli, que Stiegler posait déjà avant lui d’une manière un peu différente, me semble-t-il, en ce qui concerne les technologies numériques : toute technologie procède d’un processus de grammatisation, c’est-à-dire, de la discrétisation d’un flux temporel en sections/éléments discrets. Il faut donc une division préalable du travail vivant ou du flux temporel pour pouvoir mécaniser une tâche dans un système technique, qu’elle soit manuelle ou intellectuelle (ou même perceptive, pour reprendre le cas étudié par Pasquinelli). C’est la raison pour laquelle je préfère parler d’automatisation ou de grammatisation computationnelle et non d’ « intelligence artificielle » : de même, je parlerais plutôt d’automatisation ou de grammatisation de la perception que de perception artificielle. En revanche, si la division du travail était déjà-là en principe, elle n’est pas forcément toujours déjà-là en fait, et surtout, même quand elle est là de fait, cela n’exclut pas que les technologies rétro-agissent en retour sur les pratiques.
Par exemple, dans le cas de la machine-outil qui procède de la division industrielle du travail manuel, il me semblerait problématique de ne pas reconnaître que le travail à la chaîne a également des effets en retour sur le corps et les savoirs des ouvriers. De même, dans le cas des algorithmes de recommandation ou de génération, il me semble assez évident que ces technologies procèdent d’une grammatisation des facultés psychiques de décisions ou d’expression (donc d’une division du travail intellectuel), mais il me semble tout aussi évident que ces technologies rétroagissent également sur nous et ont des effets sur nos esprits. En fait, quand bien même on ne pourrait mécaniser des tâches qu’à condition de leur division ou de leur discrétisation préalable, cette mécanisation a des effets en retour également : la prolétarisation se situe à la fois en amont et en aval.
- Cette notion d’automatisation rejoint aussi les analyses de Juan Carbonel, dans Un taylorisme augmenté : il soutient que le travail de traduction n’est pas menacé en tant que tel, mais plutôt dégradé. Il exige au traducteur d’être un relecteur de textes générés par IA, c’est-à-dire que c’est sa créativité et son autonomie qui sont remis en cause d’avantage que le travail lui-même. Ces réflexions rejoignent de nombreuses analyses matérialistes qui remettent en partie en cause la lecture sur « la fin du travail », très courante à la fin des années 90 et à la mode à nouveau avec l’IA générative, en montrant qu’il y a plutôt un déplacement du travail vers du « micro-travail précaire », une parcellisation radicale du travail, une « taylorisation », qui rendent seule l’IA opérante. Avec l’IA générative, ce serait donc moins à une « disparition du travail » que nous aurions affaire, qu’à une « dégradation du travail ». Que penses-tu de ce genre de lecture ?
- Je suis tout à fait d’accord sur ce point, c’est ce que j’explique au début du livre : nous allons nous retrouver en position de relecteurs à corriger les fautes de ces systèmes comme nous corrigeons les fautes des logiciels de traduction automatiques. Dans le livre, je compare cette situation avec ce que disait Marx de l’artisan devenu ouvrier prolétarisé, qui devient « accessoire de la machine » et voit son travail réduit à une tâche monotone sans intérêt. À ceci près que pour pouvoir corriger une traduction ou un texte, encore faut-il posséder un certain savoir de la langue en question, or à force de déléguer ces savoirs à des systèmes algorithmiques, nous risquons de ne plus les pratiquer et de ne plus les transmettre… D’où la nécessité de ne pas renoncer à la transmission des savoirs fondamentaux, sans quoi nous nous retrouverons vite dans une situation de dépendance à la fois cognitive et technologique à l’égard de ces nouvelles machines d’écriture automatiques et des entreprises qui les produisent.
Plus généralement, je pense que la question du remplacement n’est pas nécessairement la bonne question, même si je crois que cette nouvelle phase d’automatisation pourrait avoir des conséquences très problématiques sur l’emploi et qu’elle requiert sans doute de repenser nos modèles économiques, comme le proposait Stiegler à travers le projet d’économie contributive, sur lequel je pourrais revenir ensuite. Mais dans le livre, j’essaie d’expliquer qu’on assiste moins à un remplacement à proprement parler qu’à une substitution : à un travail vivant ou à une activité interprétative se substitue un capital fixe ou un calcul automatisé. Et bien sûr, cela entraîne une dégradation du travail ou de l’activité, et des effets de prolétarisation, que nous avons déjà évoqués.
Mais le fait de poser les choses ainsi ouvre aussi une autre question : peut-on tout automatiser ? Peut-on substituer du calcul automatisé à toutes les activités ? Je ne crois pas que ce soit le cas : qu’il s’agisse des activités dites manuelles ou techniques ou des activités dites intellectuelles ou théoriques, il y a toujours une part irréductible d’interprétation liée à la singularité des personnes qui pratiquent les savoirs et à la singularité des situations, que ce soit dans le cas de la réparation d’une voiture ou d’un cours de mathématique. C’est cette diversité des savoirs vivants qui constitue la véritable richesse des sociétés et qui est au principe de leurs évolutions. Une société intégralement automatisée ne pourrait même plus évoluer.
- Par ailleurs, l’autre hypothèse sous-jacente à cette « disparition du travail » est l’idée que les technologies seraient capables d’augmenter les gains de productivité. L’idée selon laquelle l’IA pourrait sauver une économie en stagnation est assez partagée, car l’IA permettrait justement de réduire le recours au travail, grâce à l’automatisation, tout en augmentant parallèlement la production. Cependant, pour le moment, rien ne permet d’assurer et de prévoir absolument que l’IA permette un gain réel de productivité. Il est probable que ce soit d’avantage dans les parts du capital qui ont à voir avec le « secteur de la redistribution » au sens de Marx (le secteur qui redistribue la valeur, par exemple les services juridiques ou financiers, la publicité, etc.) que les transformations réelles du travail soient visibles, et pas dans le secteur de la production (comme par exemple l’industrie automobile, qui n’investit pas immédiatement dans des technologies qui peuvent être coûteuses et peu sûres). Ce qui faisait dire à Robert Solow il y a quelques décennies qu’« on voit des ordinateurs partout, sauf dans les chiffres de la productivité ». Est-ce que ce serait la même chose avec l’IA ?
- Je ne suis pas économiste, et le débat est loin d’être réglé au sein de l’économie elle-même, puisque deux récents prix Nobel soutiennent des positions très divergentes en la matière [5]. Pour l’instant, l’IA générative fait certainement l’objet d’une bulle spéculative et les capitalisations boursières des entreprises qui développent ces produits logiciels semblent augmenter bien plus vite sur les marchés financiers que la production de richesse au sein des économies réelles et des sociétés. Tous les discours autour de l’intelligence artificielle générale me semblent symptomatiques d’une économie de la promesse où il s’agit d’attirer des capitaux avec des stratégies de marketing tout en ignorant la question des répercussions économiques et sociales de ces dispositifs dans les sociétés.
Je me trompe peut-être, mais je ne suis pas convaincue par l’augmentation de la productivité au moyen de l’IA générative : non seulement l’intégration de solutions IA dans les entreprises pose des problèmes en terme de cybersécurité, mais on parle également aujourd’hui de « workslop » pour désigner la perte de temps et de confiance au travail, lié à l’usage des IA génératives (par exemple, des employés ou collègues qui s’envoient des documents automatiquement générés que les autres sont obligés de vérifier et de corriger). Cela se traduit par une perte d’efficacité et de productivité – sans même parler de la perte de sens que cela implique aussi. Ce type de phénomène me fait plutôt penser à ce qui s’était produit avec les réseaux sociaux commerciaux et la dégradation des facultés attentionnelles qu’ils impliquent, qui avait engendré des problèmes en terme de productivité, comme l’a souligné une étude récemment publiée [6]. J’ai le sentiment que le développement de plus petits modèles d’IA spécialisés dans des fonctions déterminées et conçus pour automatiser des tâches collectivement conçues comme automatisables dans tel ou tel secteur, seraient en fait plus efficace en terme de productivité.
- À la fin de ton livre, on trouve le motif d’une contradiction ou d’un effondrement possible du système du capitalisme computationnel, qui serait inhérente à son propre développement : tu expliques que ce système détruit les conditions naturelles et culturelles dont il a pourtant besoin pour subsister. Quelle politique tirer de cette prévision ? Certains accélérationistes de gauche ont cru voir là un effondrement inéluctable du capitalisme, d’autres pensent y voir une fatalité du stagnationnisme, selon laquelle l’innovation atteint vite ses limites.
- Cela dépend ce qu’on appelle accélération et innovation, deux mots assez généraux qui peuvent avoir des sens très différents… Wikipédia est une « innovation » qui permet le renouvellement des savoirs et la constitution d’un commun mais ChatGPT est une « innovation » qui se fonde sur l’extractivisme et la moyennisation : ces deux « innovations » n’ont pas du tout les mêmes modèles économiques ni les mêmes effets psychiques, sociaux, culturels, politiques… Cela dit, si l’on considère le capitalisme computationnel, plutôt que l’innovation en tant que telle, en effet, je pense que l’on peut évoquer une auto-destruction du système, à travers l’épuisement des ressources naturelles et culturelles et la dégradation du travail et des savoirs humains. D’où la nécessité d’envisager des modèles technologiques et économiques alternatifs, qui ne se fondent pas sur l’extractivisme, l’automatisation et la prolétarisation - comme je le soutiens dans la dernière partie du livre.
- Mais de telles plateformes ou technologies sont-elles viables dans les sociétés actuelles ? Concernant les systèmes de recommandation collaboratif comme Tournesol que tu évoques, on imagine mal que dans un monde où règne la recherche de profit, ces dispositifs ne soient pas détournés et trafiqués pour payer des gens une misère afin qu’ils recommandent des contenus…
- Dans le livre, je soutiens en effet la nécessité de concevoir et de développer des technologies herméneutiques et contributives, c’est-à-dire des technologies qui n’ont pas pour fonction de remplacer les capacités psychiques et d’automatiser les comportements sociaux, mais qui, à l’inverse, supportent des activités de réflexion, de jugement, d’interprétation, de partage et de contribution. Je donne plusieurs exemples. Tout d’abord, le plus connu, l’encyclopédie collaborative Wikipédia, qui permet la co-constrution collective de savoirs et le libre accès à ces savoirs de manière tout à fait inédite : une telle encyclopédie collaborative aurait été technologiquement impossible du temps du livre ou de la télévision, elle représente donc une innovation numérique importante, qui implique l’exercice des capacités d’expression, de jugement, de délibération, de certification, et la constitution d’un commun [7]. De même, la plateforme Pol.is [8] permet la délibération collective et la recherche de consensus à grande échelle en ligne, grâce à un algorithme permettant de faire remonter les propositions susceptibles de faire l’objet d’un accord au sein de groupes idéologiquement opposés : sans une telle plateforme, il est très difficile de faire émerger ce type de propositions, en raison de la culture du clash à la télévision ou de la polarisation des opinions sur les réseaux sociaux commerciaux. Enfin, la plateforme de recommandation collaborative Tournesol [9] permet à des citoyens de voter pour les contenus qu’ils jugent d’utilité publique afin de décider des informations qui doivent être valorisées dans la sphère médiatique : là encore, une telle participation citoyenne à l’environnement informationnel demeurait impossible du temps de la presse ou de l’audiovisuel.
Bien sûr, il est toujours possible d’imaginer que de telles plateformes soient trafiquées (plus vraisemblablement par des bots, car en général ce ne sont pas des humains qui sont directement payés pour détourner ces systèmes, ce sont plutôt des bots qui sont mobilisés) : c’est la raison pour laquelle il faut les soutenir économiquement et politiquement, afin de leur donner les moyens de se protéger au mieux grâce à des systèmes sécurisés. On peut remarquer que Wikipédia a très bien fonctionné pendant de nombreuses années, sur la base du bénévolat et des dons essentiellement, sans être nullement trafiqué – mais elle est aujourd’hui en danger et requiert donc un soutien plus important. De même, Tournesol est une plateforme sécurisée, elle ne peut donc normalement pas être détournée par des bots ou des fausses recommandations (contrairement aux algorithmes des réseaux sociaux commerciaux, très vulnérables à l’égard des techniques d’astroturfing), mais elle requiert elle aussi d’être soutenue pour pouvoir se protéger contre d’éventuelles cyberattaques et pour pouvoir être développée à plus grande échelle et affinée dans ses fonctionnalités.
Enfin, j’insiste surtout sur la technodiversité, c’est-à-dire la nécessité de diversifier nos systèmes et de permettre aux utilisateurs de choisir les dispositifs qu’ils jugent les plus appropriés à leurs besoins. La diversité des systèmes est la meilleure parade contre les menaces que vous évoquez : s’il y avait plusieurs algorithmes de recommandation parmi lesquels vous pourriez choisir (comme il y a de nombreux médias), quand bien même un système serait trafiqué, cela n’implique pas que tous le soient (de même, si un journal est infiltré, cela n’implique pas que tous le soient). C’est la raison pour laquelle dans le cadre du précédent Conseil National du Numérique, nous avions insisté sur la nécessité de mettre en œuvre un « pluralisme algorithmique [10] », proposition qui a été reprise depuis dans le rapport des États Généraux de l’Information [11] et dans le rapport de la commission d’enquête sur TikTok [12]. Une telle proposition me semble très importante aujourd’hui, dans un contexte où les algorithmes de recommandations quasi-hégémoniques des réseaux sociaux commerciaux représentent un danger pour les santés psychiques comme pour les régimes démocratiques : ce quasi-monopole sur la recommandation algorithmique est une aberration dans l’histoire des médias et fait des réseaux sociaux commerciaux des espaces privatisés et verticalisés, qui contreviennent structurellement à l’exercice de la démocratie.
- Outre le pluralisme algorithmique, tu évoques également la recherche contributive comme une perspective politique. Tu rappelles le projet de clinique contributive qui avait été expérimenté par Stiegler en Seine-Saint-Denis et auquel tu avais participé : il s’agissait de mettre en place des groupes de paroles et de travail dans une PMI pour inventer de nouvelles thérapeutiques face aux pathologies engendrées par la surexposition aux écrans des jeunes enfants, souvent liée aux conditions socio-économiques des parents. Tu expliques que l’objectif aurait aussi été de travailler avec des ingénieurs, développeurs ou informaticiens pour concevoir et développer un réseau social numérique alternatif avec et pour les habitants. Ici, est-ce que la fonction « remède » des technologies numériques ne constitue pas en fait l’idiot utile du capital, la pommade qui sert à alléger les peines causées par le capital ?
- Je ne soutiens pas que la technologie constitue un remède au capitalisme, elle en est bien souvent plutôt le produit, et une technologie a elle seule ne pourra jamais selon moi constituer un remède répondant aux peines causées par le capital. En revanche, il me semble important de différencier entre technologies extractivistes, prolétarisantes et autoritaires et technologies contributives, capacitantes et démocratiques – car de ce point de vue, toutes les technologies ne se valent pas. J’essaie d’éviter une sorte de nihilisme technologique qui assimile toutes les technologies sans voir que certaines d’entre elles ne sont précisément pas les produits d’un système capitaliste, mais les œuvres d’activités contributives (c’est le cas des technologies précédemment mentionnées). Je crois que les technologies, qui ne peuvent jamais constituer des remèdes à des problèmes sociaux ou politiques en tant que telles, doivent néanmoins faire l’objet de délibérations politiques et de débats citoyens et non être imposées de manière hégémonique. C’est précisément la fonction de la recherche contributive de faire en sorte que ce soient les habitants (au sens très large, y compris les professionnels concernés dans certains secteurs) qui décident des dispositifs numériques dont ils ont besoin localement, et non des entreprises quasi-monopolistiques qui imposent leurs systèmes standardisés à travers le marketing et la publicité.
En l’occurrence, le projet de clinique contributive [13] que j’évoque dans le livre (dirigé par Stiegler de 2018 à 2020) s’inscrivait dans un programme d’expérimentation de la recherche et de l’économie contributives, à travers lequel il s’agissait de faire travailler des chercheurs (en philosophie, psychologie, biologie, design) avec des citoyens, des professionnels (médecins, psychologues, puéricultrices) et des représentants politiques pour mettre en œuvre de nouvelles organisations sociales de soin, adaptées aux psychopathologies liées à la surexposition aux écrans des enfants. Le but était aussi, à plus long terme, de développer un réseau social à la fois physique et numérique permettant d’organiser collectivement les gardes partagées des enfants par différents parents du quartier et de leurs permettre échanger leurs pratiques éducatives.
Mais derrière ces activités, il y avait un projet politique : l’idée était d’expérimenter un revenu contributif rémunérant ces activités thérapeutiques, déprolétarisantes et contributives, à travers lesquelles les habitants partagent des savoirs et prennent soin les uns des autres. Même si ce revenu n’a pas pu être expérimenté, l’objectif, pour Stiegler, était de faire bifurquer le capitalisme numérique (fondé sur l’automatisation, l’emploi, la prolétarisation) vers ce qu’il décrivait comme une économie contributive (fondée sur la contribution, le revenu, la capacitation). En ce sens, le projet d’économie contributive ouvert par Stiegler a vocation à répondre aux enjeux du capitalisme computationnel et de l’automatisation numérique, mais pas à travers une simple solution technologique – il s’agit plutôt d’expérimenter un nouveau modèle économique, industriel, politique et social tout à la fois.
- Stiegler mentionnait aussi L’éthique hacker (Pekka Himanen), qui serait une « lutte pour l’abstraction », en tant que le hacker serait celui qui chercherait à ne pas être dépossédé de l’outil numérique et de son savoir théorique. Est-ce que l’IA remet en cause, ou rend impossible, cette éthique hacker selon toi ? La modifie-t-elle ? L’utopie du libre ne s’est-elle pas cassé la figure ?
- Je ne sais pas très bien comment répondre à cette question : j’aurais tendance à dire que le développement fulgurant et massif de l’IA générative implique sans doute de renouveler l’ « éthique hacker [14] », peut-être à travers le développement de petits modèles d’IA plus spécifiques, plus spécialisés, plus fiables et plus sécurisés, qui soient conçus selon des objectifs auto-déterminés par des collectifs et qui puissent fonctionner sur des serveurs locaux. Cela change tout d’un point de vue écologique, car ce qui consomme énergie, eau et électricité, ce sont surtout les data centers, c’est-à-dire, la collecte massive de donnée donc l’économie des données et de la publicité ciblée. Dans un scénario d’accélération vers des grands modèles quasi-hégémoniques, l’un des rôles des hackers est peut-être de développer des systèmes qui ne se fondent pas sur un modèle d’affaire publicitaire et qui ne vise pas une hégémonie planétaire, mais qui soient appropriables et fonctionnels par des collectifs singuliers.
Cela dit, les technologies contributives que j’ai cités précédemment sont aussi de très bons exemples de l’ « éthique hacker » : elles se fondent sur le logiciel libre et surtout sur l’engagement, la coopération, le partage. Contrairement aux services de génération algorithmique ou de recommandation algorithmique dominants, leur modèle économique n’est pas celui de la publicité et le but n’est pas l’accumulation de profit et de données : il ne s’agit pas de produire de la dépendance technologique mais plutôt de l’intelligence collective. Peut-être que l’utopie du libre s’est cassé la figure, mais je crois que les technologies herméneutiques et contributives (qui ne sont pas réductibles au logiciel libre), quant à elles, ne sont pas utopiques, car elles existent, mais sont complètement invisibilisés. Pourtant, elles me semblent vraiment nécessaires dans le contexte actuel : alors que la toxicité psychopolitique de la recommandation algorithmique et la génération algorithmique de contenus apparaît clairement, il n’a jamais été aussi urgent de promouvoir des alternatives numériques démocratiques, et de s’inspirer de celles qui fonctionnent déjà.
Par ailleurs, la perspective de l’économie contributive est elle aussi d’une grande actualité dans le contexte de l’IA générative : face à des industries extractives et entropiques qui pillent notre mémoire collective numérisée au point de l’épuiser, il semble nécessaire d’envisager des mécanismes de redistribution des richesses qui permettent de rétribuer les activités de contribution créatrice de valeur culturelle ou sociale. Dans le livre Le capital que je ne suis pas [15], co-écrit avec Gaël Giraud, nous avions envisagé la possibilité d’un « fonds pour un numérique contributif » auquel les entreprises d’IA générative qui tirent parti de nos contenus et de nos données devraient participer et qui servirait à financer la création de contenus originaux et le développement de plateformes contributives soutenables, qui permettent de les produire ou de les sélectionner - puisque de toutes façons, les IA génératives auront besoin de contenus de qualités pour fonctionner, à moins de dé-générer.
Même si Stiegler s’était beaucoup inspiré du logiciel libre pour penser l’économie contributive, l’un ne recoupe pas l’autre : dans un cas, il s’agit d’ouvrir l’accès aux logiciels et aux algorithmes, dans l’autre cas, d’envisager un nouveau modèle de redistribution des richesses – ce sont deux choses différentes, même si elles sont toutes deux complémentaires et nécessaires. Aujourd’hui, dans le contexte des IA de recommandation et de génération, la transparence des algorithmes, la diversification des fonctionnalités numériques et la transformation des modèles économiques sont trois enjeux fondamentaux, pour ouvrir un nouvel avenir à la fois technologique et politique.
Lorsque le thème de l’intelligence artificielle est abordé dans lundimatin, c’est soit pour en réfuter les croyances sous-jacentes, soit pour y déceler les prémices d’un appauvrissement et d’une fascisation du monde, soit pour en appeler au sens commun : la combattre et/ou la déserter [1]. La philosophe Anne Alombert vient de publier De la bêtise artificielle (Allia) qui défend une approche héritée de Bernard Stiegler et que l’on pourrait qualifier de beaucoup plus nuancée. Non pas en ce qui concerne l’expansion d’une bêtise artificielle en cours mais des bricolages qui pourraient être inventés pour la limiter, voire la rendre démocratique et contributive. Qui sait, une plateforme collaborative correctement algorithmée délibèrera peut-être un jour en faveur d’un programme résolument luddiste ?
[1] Ce n’est ici qu’un petit échantillon du très grand nombre d’article que nous avons publié sur le sujet.
[2] Pour une version résumée, voir Frédéric Kaplan, « Quand les mots valent de l’or », Le Monde Diplomatique, https://www.monde-diplomatique.fr/2011/11/KAPLAN/46925
[3] « AI models collapse when trained on recursively generated data », Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson & Yarin Gal, Nature : https://www.nature.com/articles/s41586-024-07566-y
[4] Jean Cattan et Célia Zolynski, « Le défi d’une régulation de l’intelligence artificielle », AOC, 2023, https://aoc.media/analyse/2023/12/13/le-defi-dune-regulation-de-lintelligence-artificielle/
[5] Sur ce point, voire les divergences entre les analyses de Daron Acemoglu (prix Nobel d’économie 2024) et les analyses de Philippe Aghion (prix Nobel d’économie 2025) sur les rapports entre IA, croissance économique et productivité : alors que le premier estime que l’IA ne pourrait augmenter le PIB mondial que de 1 ou 2 % au grand maximum (tout en creusant les inégalités et en menaçant les démocraties), le second se montre beaucoup plus « optimiste » en la matière, soutenant que l’IA pourrait permettre d’automatiser les tâches de production et la « génération d’idées nouvelles » (perspective qui semble tout ignorer des enjeux liés à ce que Stiegler décrivait sous le nom de « prolétarisation noétique » et qu’une récente étude du MIT décrit sous le nom de « dette cognitive », à savoir la dégradation de nos capacités psychiques et cérébrales à travers l’usage de ces systèmes). Sur ce dernier point, voir l’étude du MIT intitulée « Your brain on ChatGPT : accumulation on cognitive debt when using AI assistant for essay writing task » : https://www.media.mit.edu/publications/your-brain-on-chatgpt/.
[6] S. Vhardon-Boucaud, « L’économie de l’attention à l’ère du numérique » , site du Ministère de l’Economie : https://www.tresor.economie.gouv.fr/Articles/2025/09/04/l-economie-de-l-attention-a-l-ere-du-numerique
[10] « Pour un pluralisme algorithmique », Tribune, Le Monde, 25 septembre 2024 :
https://www.lemonde.fr/idees/article/2024/09/25/pour-le-pluralisme-algorithmique_6332830_3232.html
[11] Rapport des Etats Généraux de l’Information 2025 :
[12] Rapport de la commission d’enquête de l’Assemblée Nationale sur TiTok : https://www.assemblee-nationale.fr/dyn/17/organes/autres-commissions/commissions-enquete/tiktok
[13] Archives du projet de clinique contributive et du programme « Plaine Commune Territoire Apprenant Contributif » (2015-2020) : https://organoesis.org/projets-contributifs/plaine-commune-territoire-apprenant-contributif
[14] Pekka Himanen, L’éthique hacker et l’esprit de l’âge de l’information, Paris, Exils, 2001 https://ia601904.us.archive.org/31/items/LEthiqueHackerEtLEspritDeLEreDeLInformationPEKKAHIMANEN/L_Ethique_Hacker_et_l_esprit_de_l_ere_de_l_information_PEKKA_HIMANEN.pdf
[15] A. Alombert et G. Giraud, Le capital que je ne suis pas ! Mettre l’économie et le numérique au service de l’avenir, Paris, Fayard, 2024.




