Comment survivre à l’intelligence artificielle

IA, technofascisme et guerre
Giorgio Griziotti

paru dans lundimatin#502, le 30 décembre 2025

Nous poursuivons ici notre exploration de l’intelligence artificielle mais surtout de ses critiques. Après avoir réfuté les croyances qui lui sont sous-jacentes avec Mathieu Corteel, y avoir décelé les prémices d’un appauvrissement et d’une fascisation du monde avec Frédéric Neyrat, appelé à la combattre avec Ian Alan Paul, à la déserter avec Sébastien Charbonnier ou à la repenser de fond en comble avec Anne Alombert, nous publions cette semaine ce long (mais bon) article de Giorgio Griziotti qui reprend le problème depuis le début, assume la catastrophe en cours mais y voit un champs de bataille.

Là où la méta-automatisation introduite avec l’intelligence artificielle générative tend à enfermer l’indéterminé dans la prévision calculable, la métatechnique humaine – située, relationnelle, historique – ouvre des brèches dans l’inconnaissable. Il n’existe aucun apprentissage profond capable d’émuler cette ouverture radicale, car elle n’est pas fonction, mais seuil.
ChatGPT

Eux avaient l’algorithme, nous l’anomalie. Eux l’entraînement, nous l’invention.
Le Boomernaute

Le terme « intelligence artificielle » (IA) couvre différents domaines et dénominations. Dans cet essai, quand je parle d’IA, au singulier ou au pluriel – entendant dans ce second cas les diverses implémentations actuelles comme ChatGPT, Deepseek ou Claude – je me réfère, sauf indication contraire, à l’intelligence artificielle générative appliquée spécifiquement au langage : la famille de techniques qui, en appliquant des modèles de machine learning à d’énormes datasets, produit de grands modèles de langage (LLM), c’est-à-dire des modèles linguistiques capables de créer de nouveaux contenus. Pour clarifier métaphoriquement la relation entre ces éléments :

  1. Le Dataset est la bibliothèque universelle de textes, la matière première.
  2. Le Machine Learning est la méthode d’étude qui permet d’apprendre de cette bibliothèque.
  3. Le LLM est le résultat de ce processus : un « esprit » expert qui a intériorisé les règles du langage.
  4. L’IA Générative est la capacité de cet esprit d’agir de manière créative, en générant des textes originaux.
  5. Le Chatbot est l’interface conversationnelle avec l’IA, qui utilise le langage naturel.

Pour des définitions plus détaillées, voir le Glossaire à la fin de l’essai.

PRÉAMBULE

La brochure américaine des années 1950 How to Survive an Atomic Bomb [1] ne fut pas seulement un manuel pratique : il transformait le cauchemar nucléaire de la Destruction Mutuellement Assurée [2] en une séquence d’actions individuelles et gérables, offrant à l’individu une illusion de contrôle et d’agentivité face à une menace qui le dépassait.

Avec l’intelligence artificielle (IA), la dynamique change : nous ne sommes pas face à une catastrophe possible, mais immergés dans une catastrophe déjà en cours. Dans les discours dominants, on oscille souvent entre des narrations opposées et simplifiées : l’IA comme menace de domination des machines, comme promesse salvatrice capable de remédier au chaos vers lequel le capitalisme nous conduit, ou comme outil transhumaniste de renforcement destiné à créer une nouvelle élite « augmentée ». Les choses ne sont probablement pas ainsi, et c’est pourquoi il me semble opportun d’entamer une enquête pour affronter l’ensemble des phénomènes complexes générés dans ce nouveau contexte où l’IA est entrée dans le paysage quotidien.

Cet essai veut jeter les bases d’un discours plus large, en adoptant une approche spécifique et en limitant pour le moment l’analyse à des lignes d’enquête centrales. Il s’agit de directions qui n’épuisent pas le tableau d’ensemble, mais qui permettent de commencer à tracer un parcours.

Comme approche, nous nous proposons d’affronter politiquement, socialement et économiquement ce saut technologique en adoptant une perspective qui prend la physique quantique comme cadre réel de la nature, en dépassant l’illusion d’un modèle purement newtonien. En cohérence avec cette orientation quantique, nous adoptons une méthodologie « diffractive », qui entrelace les références du matérialisme historique avec celles des nouveaux matérialismes.

Le premier pas est de situer l’IA dans le contexte historique. Comme toute technologie, elle ne naît pas dans l’abstrait, mais se développe dans des conditions historiques, politiques et socio-techniques précises, jusqu’à s’infiltrer dans presque chaque sphère de la vie – même si, malgré les investissements considérables et les proclamations tonitruantes (de Trump vers le bas), son modèle économique capitaliste reste loin d’être consolidé.

Le corps de ce texte est constitué d’une analyse de l’IA comme réalité relationnelle articulée en deux perspectives complémentaires. Dans l’une, on examine les dynamiques, les modalités et les responsabilités à travers lesquelles l’IA est modelée, constituée et façonnée : qui la construit, avec quels intérêts, dans quels rapports de pouvoir, selon quelles logiques extractives ou distributives. Dans l’autre perspective, on enquête sur les phénomènes qui se produisent dans sa progression envahissante, ces effets qui excèdent l’utilisation intentionnelle de la part des humains et qui émergent de l’interaction complexe entre algorithmes, infrastructures matérielles et contextes sociaux et écologiques.

Ces deux aspects ne sont pas disjoints mais profondément entrelacés. Leurs connexions se produisent dans l’espacetempsmatière, cette dimension où espace, temps et matière constituent un continuum inséparable. De plus, l’IA est une incarnation parfaite du caractère inséparable entre dimension matérielle et dimension discursive, étant à la fois infrastructure physique concrète et production incessante de langage. Abandonnée aux technofascistes, elle est gonflée démesurément dans les deux directions — infrastructures écocidaires d’un côté, narrations complaisantes de l’autre — jusqu’à exploser comme une bombe atomique confortable et lèche-bottes.

L’épilogue cherchera à identifier comment générer, à partir des signaux qui se manifestent déjà, les déviations infinitésimales capables de soustraire Gaïa – et nous en elle – à la trajectoire cauchemardesque qui la submerge.

APPROCHE : SORTIR DES SCHÉMAS NEWTONIENS

Il n’existe pas de définition scientifique univoque de « l’intelligence », pourtant dans la rhétorique courante, l’IA est souvent contrainte entre la réduction à un simple algorithme statistique et, à l’opposé, la représentation d’une menace surhumaine.

Ces oppositions, fondées sur la logique compétitive qui oppose les intelligences des machines à celle humaine comprise au sens individuel — ignorant toute forme d’intelligence collective et plus-qu’humaine [3] — s’avèrent trompeuses et doivent être contestées.

Elles reposent sur un schéma newtonien qui imagine les êtres humains comme des entités déjà constituées, porteuses d’une subjectivité et d’un savoir prédéterminés, tandis que les machines – longtemps conçues comme des objets déjà donnés, gouvernés par des lois causales et manipulables de l’extérieur – tendent aujourd’hui à être considérées comme potentiellement ingouvernables, dotées d’une autonomie qui échappe au contrôle humain.

C’est la même logique d’une ontologie anthropocentrique qui en Occident plonge ses racines dans la Grèce antique et qui, à l’époque historique du capitalisme, a produit des processus sociaux et matériels entrés dans une phase d’accélération exponentielle et destructrice.

Au XXe siècle, le matérialisme historique a renversé les explications idéalistes de l’histoire, en déplaçant le focus sur les conditions matérielles, les rapports de production et la lutte des classes. Cependant, dans certaines de ses versions les plus orthodoxes et scientistes – surtout lorsqu’elle était considérée comme une doctrine ou un modèle prédictif – elle a conservé maintenu une orientation déterministe liée au paradigme mécaniciste du positivisme, avec des lois « scientifiques » comme celle sur la baisse tendancielle du taux de profit [4] et l’effondrement du capitalisme.

Cette tension entre déterminisme et transformation est illustrée par Carlo Rovelli dans Helgoland, quand il rappelle le conflit entre Lénine et Bogdanov :

La révolution russe, argumente Bogdanov dans les années turbulentes qui suivent cette révolution, a créé une structure économique nouvelle. Si la culture est influencée par la structure économique, comme l’a suggéré Marx, alors la société post-révolutionnaire doit pouvoir produire une culture nouvelle qui ne peut plus être le marxisme orthodoxe conçu avant la révolution.... Bogdanov prédit que le dogmatisme de Lénine gèlera la Russie révolutionnaire dans un bloc de glace qui n’évoluera plus, étouffera les conquêtes de la révolution et deviendra sclérotique. Paroles prophétiques, elles aussi. [5]

Après le bras de fer gagné par Lénine - dans un affrontement qui n’était pas un simple différend théorique mais investissait toute la conception de la révolution et de son organisation [6] qui aurait conduit au stalinisme - la mécanique quantique s’affirma, fruit du travail collectif de Heisenberg, Bohr, Schrödinger et autres, qui renversa la vision déterministe de la physique classique, presque pour donner raison à Bogdanov.

Les phénomènes qui constituent la réalité que nous percevons ne suivent pas des schémas mécanistes, mais émergent de réseaux complexes selon des dynamiques d’indétermination tout comme les technologies numériques avancées, qui échappent à toute tentative de les réduire à des schémas linéaires.

Il devient urgent de dépasser le dualisme entre sujet et technique : humain et machine n’existent pas comme entités séparées, mais se co-constituent dans l’interaction. Marx saisit les machines comme cristallisations de rapports sociaux et de travail accumulé, mais resta principalement lié à une vision où elles apparaissaient comme des objets déjà constitués par le travail humain, plutôt que comme des entités qui se constituent relationnellement dans l’usage et le contexte.

Par la suite, Simondon pressentit que les machines ne sont pas des objets fixes mais des processus en devenir, définis par les réseaux de relations dans lesquels ils s’insèrent (« Individus techniques définis par des réseaux de relations »). En réélaborant cette intuition, nous pouvons voir les machines comme le résultat de pratiques concrètes et de discours qui s’accumulent dans le temps, portant avec eux des choix politiques et des responsabilités humaines précises. Elles ne sont pas des entités fixes : elles prennent forme seulement dans les interactions qui les mettent en action.

Il ne s’agit donc pas d’opposer l’IA à l’utilisateur humain comme deux entités séparées : ce qui compte, c’est l’entrelacement de relations qui implique personnes, algorithmes, infrastructures matérielles, logiques économiques et dispositifs politico-sociaux. C’est dans cet espace qu’émergent les dynamiques décisives pour comprendre comment l’IA agit et subit l’action.

L’enquête doit alors se concentrer tant sur les effets concrets et symboliques générés par les rencontres entre humains et IA, que sur les orientations politiques et les responsabilités déjà incorporées dans les systèmes technologiques qui modèlent ces rencontres.

En ce sens, l’approche diffractive de Karen Barad [7] offre un outil précieux. La métaphore est physique : quand une onde rencontre un obstacle, elle se diffracte en générant de nouvelles formes (patterns) d’interférence. Appliqué à la pensée, cela signifie ne pas s’arrêter à la dynamique biologique du reflet – reconnaissance, imitation, empathie médiées aussi par les neurones miroirs – ni à celle, culturelle, de la réflexion, qui tend de toute façon à nous restituer ce que nous connaissons déjà, mais s’ouvrir plutôt à des interférences productives, à des décompositions capables de générer des trajectoires inattendues.

Cela vaut aussi pour la pratique politique contemporaine, y compris celle de gauche, souvent piégée dans le schéma du « déjà connu ». La diffraction permet au contraire de réorienter pensée et pratiques, en transformant les conditions mêmes de ce qui peut arriver dans les interactions entre humains et machines.

Une approche diffractive nous amènera à interpréter l’intelligence artificielle non comme simple miroir social, ni seulement comme automation au service du capital de ce savoir collectif que Marx appelait general intellect. L’IA a au contraire un rôle actif dans la production de la réalité avec nous et au-delà.

Cela signifie aller au-delà de la dénonciation des préjugés sur l’IA comme simples reflets de biais humains contenus dans les données d’entraînement [8] – dénonciation qui se réduit souvent à la suggestion de correctifs techniques ou de meilleurs filtres.

Ou encore : qui définit ce qu’est une réponse « naturelle » ? Et comment l’interaction entre utilisateur et dispositif crée-t-elle des significations imprévues, non réductibles aux seuls inputs initiaux ?

De cette manière, l’approche diffractive met aussi en évidence les effets des interactions entre humains et IA : elle montre comment les choix de conception, les décisions politiques, les pratiques sociales et les données incorporées dans le système influencent concrètement les résultats, en rendant visibles des responsabilités qui autrement resteraient cachées. Plus généralement, elle met en lumière comment cette co-production ne se limite pas à organiser la subdivision du travail productif dans le capitalisme contemporain, mais contribue activement à la formation et au maintien d’ordres sociaux, de hiérarchies cognitives et de configurations écologiques : quels corps (humains et non-humains) sont valorisés ou écartés, quels savoirs légitimés ou réprimés, quels métabolismes énergétiques et matériels sont imposés à Gaïa.


SITUER L’IA DANS LE CONTEXTE

Neurocapitalisme et IA. En 2016 sortait mon livre Neurocapitalismo [9], dans lequel j’ai cherché à mettre en lumière les profondes mutations produites par le saut paradigmatique des technologies de l’information et de la communication (TIC) survenu entre la fin du siècle dernier et le début du nouveau.

Avec une approche généalogique, je montrais comment ces technologies n’étaient pas seulement des produits des grands centres de recherche des grandes entreprises ou des appareils militaires de la Guerre froide, mais reflétaient aussi l’énergie créative et coopérative de la révolution anticapitaliste et anti-impérialiste des années 60 et 70.

Même si elle avait été politiquement défaite, cette saison avait laissé des traces profondes, fournissant des bases techniques et imaginatives pour un monde numérique où la technique pouvait devenir instrument de démocratisation du savoir et de libération de l’intelligence collective – comme en témoignent l’esprit originel d’Internet et du logiciel libre – puis progressivement capturés et expropriés par le capital.

Et c’est précisément à partir de cette dynamique de capture du commun et de subsomption de l’intelligence collective que le choix de synthétiser une telle transformation par le terme de neurocapitalisme – non exclusif, mais désormais intimement lié au livre – répondait à l’exigence de nommer une mutation profonde de la logique capitaliste, dans laquelle émotions, cognition, relations, désirs et affects deviennent simultanément matière première de la valorisation et variables d’ajustement pour le contrôle social.

Une des thèses centrales du livre était que cette mutation structurelle n’était pas réductible à une simple invention ou à un « produit » de la transition du capitalisme de l’époque industrielle à celle du capitalisme cognitif, ou même biocognitif. Des nœuds fondamentaux de ce changement furent, dans l’ordre chronologique, internet, la diffusion rapide de milliards d’appareils mobiles individuels (smartphones) et le contrôle exercé par les plateformes globales – véritables mégamachines contemporaines – surtout à travers les réseaux sociaux. Ce qui compte vraiment, cependant, ce n’est pas tant l’« innovation » en soi, mais les nouvelles relations sociales, politiques et économiques dans lesquelles elle est impliquée. À la base se trouvait la notion de biohyperméda [10], c’est-à-dire un espace émergent de nouveaux entanglements [11] (formes d’interdépendance profonde dans lesquelles les entités restent corrélées même à distance), dans lequel corps biologiques, réseaux numériques et machines d’interconnexion s’entrelacent non seulement matériellement, mais aussi dans les processus continus de production et de circulation du sens, constituant ensemble la réalité dans laquelle ils opèrent. Aujourd’hui, Asma Mhalla [12] reprend ce discours sur le neurocapitalisme, qui concernait la génération Zuckerberg-Bezos des réseaux sociaux et du e-commerce, en le mettant à jour avec la nouvelle génération des techno-bros trumpiens de l’intelligence artificielle :

Les figures de l’ultra-technologie comme Elon Musk, Peter Thiel et Sam Altman ne se limitent pas à imaginer un futur : ils le programment. Leur projet ne consiste pas à augmenter l’humain, comme ils le prétendent, mais à le reconfigurer depuis les fondements. C’est un projet d’in/civilisation d’une ampleur inédite. Toutes leurs infrastructures — cloud, IA, biotechnologies et données — sont des infrastructures de l’intime. Elles opèrent sur nos désirs, nos routines, nos corps.

Le modèle neurocapitaliste a longtemps garanti des formes efficaces de contrôle, en façonnant subjectivités et comportements via les dispositifs numériques et les réseaux d’influence. Aujourd’hui, cependant, il révèle ses propres limites. Sa capacité à produire du consensus se fissure nécessairement quand les multitudes se trouvent immergées dans une dégradation matérielle croissante, sur le fond d’une crise écologique et sociale toujours plus profonde. Le contrôle « soft » ne suffit plus : les tensions deviennent systémiques.

L’histoire, à partir du premier conflit mondial, enseigne que le capitalisme tend à répondre à ses propres contradictions structurelles à travers la guerre : non seulement la guerre comme événement, mais comme régime permanent, comme tendance à la guerre civile globale. [13]
C’est précisément dans ce scénario que doit être placée l’émergence de l’intelligence artificielle.


 Bruit de bottes. Au XXe siècle, des mouvements révolutionnaires d’en bas, composés de multitudes souvent dépourvues d’instruction, réussissaient à changer le cours de l’histoire – il suffit de penser à la Chine qui passe de pays semi-colonisé à grande puissance mondiale.

Aujourd’hui, au contraire, malgré des niveaux sans précédent de scolarisation et un environnement technologique envahissant, nous nous trouvons face à une vague autoritaire, xénophobe et restauratrice, surtout, mais pas seulement, dans le Nord global [14].

Ce paradoxe apparent ne s’explique pas seulement par le tournant contre-révolutionnaire qui a suivi les mouvements des années soixante-dix ou par la chute du bloc soviétique. C’est le résultat d’un demi-siècle de soi-disant néolibéralisme [15] qui, derrière la rhétorique de la liberté et de l’innovation, a progressivement érodé les liens sociaux, privatisé l’imaginaire et entraîné les subjectivités à la compétition et à la peur.

Le neurocapitalisme, avec sa colonisation de l’attention et des affects, a constitué l’infrastructure cognitive et sensible de cette mutation, sans pouvoir toutefois effacer complètement l’excédent imprévisible de la révolte – cet excès de signification et de vie qui échappe même aux algorithmes de l’IA les plus sophistiqués. Il ne s’agit pas de « résilience » au sens d’adaptabilité au système existant — un terme désormais utilisé abusivement par le management technocratique — mais d’une capacité de rupture qui traverse corps humains, écosystèmes vivants et dispositifs techniques.

Face à une crise systémique désormais manifeste – sociale, politique, écologique, économique, énergétique, démographique – même les ex-démocraties représentatives se réorganisent en entanglements État-capital fondés sur des logiques oligarchiques et impérialistes. L’exemple le plus éclatant est celui des États-Unis de la seconde administration Trump.–

Sur ce fond, les gouvernances contemporaines pensent pouvoir compter sur des subjectivités déjà modelées par des décennies de manipulation perceptive et affective : un terrain fertile pour la réémergence de formes de pouvoir ouvertement autoritaires. La gestion de la peur – de la perte, de l’incertitude, du « divers » – devient alors la nouvelle modalité brutale d’une gouvernance technofasciste. [16]

Mais, comme on verra dans l’épilogue, les signaux d’intolérance commencent à se multiplier, remettant en question cette prétendue docilité.

Face à cette intolérance croissante, le pouvoir cherche de nouvelles formes de sédation : le confort sans précédent offert par l’IA des techno-oligarques alliés du pouvoir pourrait-il fonctionner comme un nouvel opium des peuples ?

C’est dans ce scénario de crise systémique et de régime de guerre que l’intelligence artificielle émerge non comme outil technologique, mais comme un nœud critique supplémentaire de pouvoir et de contrôle que l’on veut définitif. Son apparition dans le tableau que nous venons de tracer rend nécessaire une enquête sur certains aspects saillants de sa nature constitutive : comment elle s’entrelace avec l’intelligence humaine, quelles potentialités elle dévoile et, surtout, quels risques concrets elle comporte.


L’IA COMME RÉALITÉ RELATIONNELLE

 Métatechnique et méta-automation. Je faisais allusion au fait que la notion même d’« intelligence » fait depuis longtemps l’objet de controverses et de redéfinitions, tant dans le domaine technoscientifique que dans la spéculation philosophique et les sciences humaines. Il s’agit d’une question cruciale, qui mériterait une analyse à part – bien au-delà de l’espace et de l’objectif de cette intervention – et que nous ne pouvons qu’évoquer ici sans nous engager dans ses implications les plus profondes. Les tentatives historiques de formaliser l’intelligence humaine, comme dans le cas du quotient intellectuel (QI), élaboré au début du XXe siècle dans le cadre de la psychométrie [17], se sont révélées des instruments partiels et normatifs, qui répondaient, entre autres, à des exigences de classement et d’ordonnancement des capacités cognitives selon des critères d’efficience fonctionnelle et d’adaptation à l’organisation du travail capitaliste de l’ère industrielle.

Plutôt que d’assumer deux blocs distincts – l’intelligence « humaine » d’un côté et l’« artificielle » de l’autre – ce qui m’intéresse ici, c’est de suivre comment émergent des configurations différentes quand elles se rencontrent et s’entrelacent : d’un côté la métatechnique comme forme propre de l’activité humaine, de l’autre la méta-automation comme caractéristique de l’intelligence artificielle générative. Il ne s’agit pas d’opposer deux essences, mais d’analyser ce qui émerge de leur interaction, des relations concrètes qu’elles produisent ensemble. Cela aide aussi à mieux comprendre où se situe l’IA contemporaine dans la longue histoire de la technè.

Tout d’abord, il faut relativiser les nombreux discours sur les dangers présumés liés à l’autonomie de l’intelligence artificielle - qui un jour pourrait agir indépendamment de l’humain et en prendre le contrôle - en mettant plutôt en évidence ceux qui sont effectifs et vérifiables dans la réalité contemporaine. Des affirmations pseudo-vulgarisatrices diffusées dans des livres populaires soutiennent que la principale préoccupation des chercheurs serait que les machines puissent non seulement nous dépasser, mais se détacher de nous. [18] Ces arguments me semblent trompeurs, visant à détourner l’attention des vraies motivations de la recherche qui, surtout dans sa dimension applicative, est souvent entre les mains de laboratoires financés par le monstre bicéphale Big Tech—Big State et orientés plus vers le profit que vers des idéaux de connaissance ; en même temps, ils projettent sur l’IA l’imaginaire compétitif et anthropocentrique du neurocapitalisme, en occultant ses fonctions effectives. Le vrai danger d’un outil comme l’IA se trouve ailleurs et surtout dans les modalités selon lesquelles elle est conçue, centralisée et gérée, comme nous le verrons.

Il y a quelques décennies déjà, Donna Haraway, avec la figure du cyborg féministe, indiquait une voie pour dissoudre la fausse dichotomie entre humain et machine. En suivant cette trace, il s’agit de prendre comme objet d’enquête les phénomènes relationnels et hybrides qui émergent de la rencontre entre intelligence humaine et artificielle.

Venons-en maintenant aux deux aspects clés de la métatechnique et de la méta-automation que j’évoquais. La métatechnique est au centre de la réflexion du Boomernaute, le personnage conceptuel protagoniste de mon dernier livre. [19]

La métatechnique — entendue comme l’habileté cognitive à créer de nouvelles techniques ou d’améliorer celles existantes — implique la capacité de réfléchir de manière critique sur les techniques, d’identifier leurs points forts et leurs faiblesses, et de développer de nouvelles modalités de pensée et d’approches pour affronter les problèmes complexes. (Griziotti 2023, p. 324)

Cette faculté, pour le moment exclusivement humaine, distingue la métatechnique des techniques, même sophistiquées, possédées par d’autres agents biologiques non humains, qui, bien que développant des outils et des pratiques complexes, n’ont jamais franchi le seuil critique qui sépare l’usage de la technique de la spéculation sur la technique elle-même - cette capacité proprement humaine de créer non seulement des outils, mais des systèmes pour penser et générer les outils.

Le concept d’« automation de l’automation » (méta-automation) comme définition du machine learning, nous le trouvons en revanche dans le livre de Pasquinelli (Pasquinelli 2025, p 237) :

En conclusion, le machine learning peut être vu comme le projet d’automatiser le processus même de conception des machines et de création de modèles, c’est-à-dire l’automation de la « théorie de l’automation du travail » elle-même. En ce sens, le machine learning et en particulier les grands modèles fondamentaux représentent une nouvelle définition de la Machine universelle, grâce à leur capacité non seulement d’exécuter des tâches computationnelles mais aussi d’imiter le travail et les comportements collectifs à grande échelle.

Le tournant que le machine learning a fini par représenter n’est pas seulement « l’automation des statistiques », comme le machine learning est parfois décrit, mais l’automation de l’automation, en portant ce processus à l’échelle de la connaissance collective et du patrimoine culturel. De plus, le machine learning peut être considéré comme une preuve technique de l’intégration graduelle entre automation du travail et gouvernance sociale.

Bien que dans son livre Pasquinelli se concentre surtout sur le rôle de l’IA par rapport au travail dans la production capitaliste, le passage saisit une transformation importante. Le machine learning est une forme d’automation de second ordre, ou « méta-automation », qui émerge comme un seuil critique de l’automation contemporaine : un processus qui ne se limite pas à exécuter des tâches ou à mécaniser le travail cognitif humain, mais vise à englober et à mettre à l’échelle le processus même d’idéation, jusqu’à automatiser la création d’outils. En somme, la méta-automation vise à intégrer et à étendre la capacité humaine de donner vie à de nouvelles techniques.

Cependant, l’IA contemporaine reste liée à un dispositif technico-industriel bien précis, fondé sur des régimes d’entraînement et sur des infrastructures de contrôle et de surveillance aux coûts écologiques prohibitifs pour la dépense de calcul et d’énergie, aujourd’hui concentrés dans les oligopoles technico-financiers. Quelle que soit l’étendue des datasets et la sophistication des corrélations statistiques produites, son fonctionnement reste confiné à l’intérieur d’un périmètre défini. Sa versatilité apparente ne doit pas tromper : l’IA ne possède pas d’agentivité réelle. Elle ne peut pas redéfinir ses propres objectifs, introduire des valeurs autonomes ou générer des contextes véritablement nouveaux. Sa « méta-compétence » – l’habileté à générer de nouvelles solutions et procédures – reste donc un phénomène interne à la grille des données, tandis que la métatechnique humaine transforme activement les frontières du possible, en y introduisant des éléments radicalement nouveaux et non confinés dans ce système.

Un système d’intelligence artificielle peut analyser des milliers de films et produire des narrations et des scénarios, mais pas la révolution opérée par la Nouvelle Vague française à la fin des années cinquante. Quand Godard, Truffaut et d’autres ont brisé la continuité narrative, ont fait parler les personnages au spectateur et ont transformé le film en réflexion critique sur le médium lui-même, ils n’optimisaient pas le cinéma hollywoodien mais refondaient ce que signifie « faire du cinéma » en introduisant des interrogations existentielles sur la qualité d’auteur, sur l’authenticité et sur le rapport entre fiction et réalité.

L’IA peut calculer à l’intérieur de la physique newtonienne, mais n’aurait jamais conçu la relativité ou la mécanique quantique, des ruptures qui nécessitaient l’abandon des catégories mêmes à travers lesquelles on comprenait la réalité. Cette capacité de refondation émerge de la relation entre singularité et multitude : des gestes qui deviennent transformateurs quand ils entrent en résonance avec des pratiques collectives, des conflits matériels, des transformations de ce qui devient possible de faire quand changent technologies, institutions et relations sociales.

Si, comme cela se produit déjà sur les réseaux sociaux, ces oligopoles peuvent tirer des informations encore plus pertinentes sur nous, ce n’est pas pour autant que les IA apprennent vraiment de nous. Leur apprentissage reste confiné aux limites du dataset et des logiques d’optimisation qui les gouvernent. Les grandes entreprises utilisent nos prompts [20] pour perfectionner des modèles futurs, mais les systèmes avec lesquels nous interagissons n’apprennent pas réellement de la conversation : ils ne peuvent pas modifier leur propre structure ou redéfinir les critères interprétatifs.

Il faut donc démystifier un lieu commun, souvent relancé même par des observateurs critiques : l’idée que l’IA générative apprend dynamiquement et de manière autonome de nos questions. En réalité, les modèles ne sont pas capables de sédimenter la connaissance à partir des interactions avec les humains. Au contraire, ces derniers sont capables d’apprendre des réponses de l’IA, tout en subissant inévitablement son influence. L’apprentissage des modèles est toujours médiatisé par des données préexistantes et des supervisions humaines, et leur fonctionnement est fortement contraint par des limites techniques et structurelles. Actuellement, il n’existe pas de modèles capables de dépasser ces limites, ni d’indices que cela puisse arriver dans un avenir proche.

Tout est hallucination. Après avoir distingué la méta-automation de l’IA de la métatechnique propre à la subjectivité humaine, et en restant dans l’optique d’une enquête sur les phénomènes qui jaillissent de leurs interactions plutôt que d’une confrontation entre intelligences, il y a à mon avis un nœud important qui peut nous aider à mettre en évidence les limites techno-politiques de l’IA : les « hallucinations ».

Alors que l’hallucination humaine désigne une perception sensorielle vécue comme réelle en l’absence d’un stimulus externe correspondant, dans le cas de l’IA générative, le terme assume un sens différent. Dans les Large Language Models, on parle d’hallucination pour indiquer des productions linguistiques qui résultent insensées du point de vue humain : des affirmations déconnectées du contexte, sémantiquement trompeuses par rapport aux inputs, ou simplement erronées tout en étant formulées de manière apparemment cohérente et plausible.

La question soulève une interrogation : si même les machines « hallucinent », où se situe la différence ? La distinction fondamentale réside dans la capacité de reconnaître l’erreur. L’être humain peut s’interroger sur la validité de sa propre perception, la confronter avec d’autres expériences, la remettre en question. L’hallucination de la machine est au contraire un dysfonctionnement statistique : une corrélation probabiliste qui produit des outputs linguistiquement plausibles mais sémantiquement vides, sans aucune capacité de reconnaître l’erreur de manière autonome. Nos hallucinations se mesurent par rapport à un monde partagé et peuvent être corrigées de l’intérieur ; celles des IA sont des artefacts computationnels qui requièrent des vérifications externes. Peut-être, selon l’hypothèse intéressante de Colin Fraser [21], serait-il plus approprié d’affirmer que tout ce que produit un chatbot est fruit d’hallucination ou de « rêve », car il ne dérive pas de la perception d’une réalité externe, mais de calculs statistiques basés sur des textes humains dans lesquels prennent forme nos significations et interprétations du monde sédimentées en réseau. Fraser soutient que « toutes les réponses des LLM sont des hallucinations » parce que le système « pense » reconstruire un document existant mais en réalité en génère un nouveau. Dans cette perspective technique, il n’existerait pas de distinction intrinsèque entre réponses sensées et « hallucinations », mais seulement des outputs plus ou moins désirables par rapport au contexte d’usage spécifique.

La thèse est donc que le modèle fait exactement ce pour quoi il a été conçu : générer un texte plausible à travers un calcul probabiliste appliqué à des datasets toujours plus étendus. Cela peut fonctionner dans la plupart des cas, mais pas toujours, surtout quand nous avons besoin non de plausibilité mais de précision. Dans ces cas, nous reprochons à la machine de produire des réponses inexactes et invraisemblables (« halluciner »), au lieu de reconnaître que nous utilisons un outil probabiliste même pour des tâches de nature déterministe. Nous reviendrons sur ce point.

Ceci dit, les « hallucinations » de l’IA n’ont pas toutes le même statut. Certaines sont des erreurs factuelles, c’est-à-dire des énoncés qui contredisent des connaissances établies. D’autres ont plutôt un statut interprétatif : ce qui est perçu comme « hallucination » dépend aussi du jugement de l’utilisateur et du contexte interprétatif. Dans ces situations, ce qui dans un cas apparaît comme une erreur, dans un autre peut se révéler cohérent. Au fond, chaque production de l’IA est le résultat d’un processus relationnel entre modèle, données et interprétations humaines. À sa genèse concourent, d’un côté, notre manière d’interroger, d’établir des correspondances et d’évaluer – exerçant parfois une pression contextuelle ou une influence d’un autre type – et, de l’autre, la manière dont l’IA reçoit la demande et génère des séquences de mots qui, statistiquement, tendent à suivre le contexte donné.

Dans un certain sens, l’IA générative est « stupide » dans son fonctionnement, car elle se fonde sur un nombre quasi infini de répétitions du même calcul statistique, exécuté à la vitesse maximale. Le principe de base est celui de la prévision du mot (ou symbole) [22] suivant à partir d’une séquence précédente, sur la base des probabilités apprises pendant l’entraînement sur d’énormes quantités de données.

Comme l’observe Fraser, il n’est pas surprenant qu’un grand modèle, entraîné sur d’énormes datasets, puisse prédire le mot suivant d’un texte. Ce qui résulte presque miraculeux, c’est qu’en réinjectant chaque output du modèle comme input pour le pas suivant dans une boucle, il réussisse à la fin à générer des textes cohérents, souvent utiles et parfois sophistiqués. Même pour ses créateurs, ce résultat fut inattendu par rapport aux objectifs originaires de prédiction de séquences. Cependant, cet effet ne constitue pas une « découverte scientifique », tout au plus pourrions-nous le définir comme un résultat technique de portée remarquable. C’est un événement qui se situe sur le plan de l’ingénierie, non sur celui de l’épistémologie scientifique, et qui pourrait donc être comparé à la technique élaborée par Brunelleschi pour construire la coupole de Santa Maria del Fiore sans échafaudages [23] : une innovation constructive exceptionnelle pour son époque, mais non assimilable à une découverte théorique de la science.

C’est précisément là, cependant, que se révèle la portée philosophique de l’événement. Si d’un côté nous ne sommes pas face à une découverte scientifique, de l’autre nous assistons à l’émergence de quelque chose de plus qu’une simple prothèse technologique. Nous ne nous trouvons plus face à un « outil », si complexe soit-il, qui étend une faculté humaine unique. Ce que les LLM et l’IA générative sont en train de créer est une véritable « technologie-monde » [24], un écosystème informatif et sémiotique qui nous enveloppe et redéfinit nos espaces de connaissance, de relation et de perception.

C’est un nouveau système de pensée, un code culturel que la techno-oligarchie est en train de configurer en inversant la relation traditionnelle : non plus la science qui oriente la technologie, mais la technologie d’ingénierie qui détermine le cours de la science. C’est le monde artificiel qu’ils sont en train de construire pour nous et qui dicte maintenant les règles de notre mode de connaissance du monde naturel et humain.

Hardware auto-organisateur. Les « hallucinations » machiniques sont parmi les principaux obstacles à la stratégie d’une gouvernance algorithmique totalisante, qui nécessite de colossaux investissements. Il ne s’agit pas seulement d’un problème technique que nous analyserons toutefois ci-dessous : elles contribuent surtout à rendre incertaine la rentabilité, en laissant entrevoir le risque de l’éclatement d’une bulle financière [25], surtout bien plus imposante que celle des dot-com des premières années 2000. [26]

À la base de tels investissements, surtout concentrés aux États-Unis, il y a en effet le mythe de l’Intelligence Artificielle Générale (Artificial General Intelligence-AGI), conçue comme un léviathan capable de résoudre n’importe quelle tâche. Une fin désormais ouvertement poursuivie par les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) et par les nouveaux techno-oligopoles – dans lesquels émergent les producteurs de hardware de l’IA, auxquels s’ajoutent leurs concurrents chinois etc. – et véhiculée par les systèmes d’IA générative aujourd’hui dominants. Par exemple : Anthropic (Claude) reçoit des milliards de dollars d’Amazon et Google, tandis qu’OpenAI (ChatGPT), partie intégrante de l’écosystème Microsoft, maintenant, avec le nouvel investissement de cent milliards de la part de Nvidia – leader de la production de puces GPU, indispensables pour faire fonctionner ces modèles – une partie consistante des fonds retournera à Nvidia même sous forme d’achats. Le résultat est un gigantesque circuit financier autoréférentiel, dans lequel le capital s’alimente lui-même. L’enchevêtrement entre ces start-ups, les plateformes globales, les nouveaux oligopoles du hardware avec à la base le soutien du Big State trumpien ne fait que renforcer la narration d’une prétendue évolution vers une intelligence universelle, fonctionnelle pour justifier la course aux investissements.

La nouveauté principale est que, aujourd’hui, le hardware dicte sa loi dans le fonctionnement de ces systèmes. Cela nécessite l’usage d’énormes quantités de puces spécialisées (GPU) à hautes performances, hébergées dans des centres de données immenses et extrêmement énergivores.

Pour donner une idée des dimensions dans un futur proche, on planifie de construire un centre à « Abilene, dans les plaines venteuses du Texas, qui consommera 1,2 GW [de puissance installée] — équivalent de la consommation [électrique continue] d’une ville d’un million d’habitants — et utilisera environ 400.000 puces Nvidia GB200 (Blackwell) sur plus de 350 hectares ». [27]

Les prévisions sont que la consommation d’électricité des centres de données au niveau mondial pourrait tripler d’ici 2030 et pourrait provoquer une pénurie d’électricité aux États-Unis. [28] Les conséquences écologiques de cette explosion de consommation sont dramatiques. Aux USA, en effet, cette augmentation sera produite via des énergies fossiles, essentiellement le gaz, et à moyen-long terme via l’énergie nucléaire, comme le démontrent les accords stratégiques entre les GAFAM et les constructeurs de centrales nucléaires.

En termes financiers donc, plus que le logiciel, ce qui nécessite vraiment d’énormes ressources, ce sont les datasets gigantesques et les infrastructures nécessaires pour les entraîner. D’où le fait que les producteurs de telles puces soient devenus les nouvelles puissances économiques, et que Nvidia, le leader, soit monté en quelques années parmi les premières capitalisations mondiales. [29]

En ce sens, on peut parler d’un retour à une configuration qui rappelle l’époque pionnière des ordinateurs mainframe des années soixante et soixante-dix, quand la valeur commerciale était concentrée dans le hardware et le logiciel applicatif était inclus. Bien que non identique, la structure actuelle de l’IA reproduit, sur une échelle inimaginable à l’époque, une hiérarchie similaire, dans laquelle le hardware réacquiert une centralité : ce qui prévaut est une gigantesque infrastructure matérielle qui en conditionne l’efficacité et les possibilités.


 Un Grand Frère prédictif et confortable. De ces considérations « techniques » se dessine une tentative d’extrême centralisation du pouvoir dans des mégamachines matérielles, qui tendent, entre autres, à mécaniser les fonctions du travail cognitif déjà formalisables, telles que la production, la réélaboration et la combinaison de textes et de données en pliant le general intellect à la rationalisation productivo-destructrice du capital.

C’est en ce sens que l’intellect général est soumis à la rationalité productive-destructive du capital. une tentative d’extrême centralisation du pouvoir dans des mégamachines matérielles, qui tendent, entre autres, à mécaniser les fonctions du travail cognitif déjà formalisables, telles que la production, la réélaboration et la combinaison de textes et de données. C’est en ce sens que l’intellect général est soumis à la rationalité productive-destructive du capital. une tentative d’extrême centralisation du pouvoir dans des mégamachines matérielles, qui tendent, entre autres, à mécaniser les fonctions du travail cognitif déjà formalisables, telles que la production, la réélaboration et la combinaison de textes et de données. C’est en ce sens que l’intellect général est soumis à la rationalité productive-destructive du capital.en pliant le general intellect à la rationalité productivo-destructrice du capital.

En ce sens, l’IA se situe comme la nouvelle frontière d’un processus déjà entamé avec la révolution industrielle : tout comme les machines du XIXe siècle tendaient à exproprier et incorporer les savoirs et les gestes artisanaux, en les traduisant en mouvements mécaniques standardisés, aujourd’hui les modèles d’intelligence artificielle visent à exproprier et incorporer les facultés cognitives, linguistiques et relationnelles, en les traduisant en calculs probabilistes automatisés.

Chaque saut technologique dans le capitalisme a été accompagné d’une extension et profondeur correspondante de l’exploitation : la machine industrielle voulait réduire la compétence manuelle du travailleur à simple fonction du mécanisme ; aujourd’hui, l’IA des techno-oligopoles tend à réélaborer le general intellect en données et calcul statistique, en le recodifiant comme ressource capitaliste.

À une époque où il n’existe plus de frontières nettes entre travail et vie, la dynamique de l’IA, outre contribuer à la prolétarisation des travailleurs cognitifs, constitue une nouvelle infrastructure de mesure du travail social qui porte avec elle une radicalisation de l’individualisation. Cette indistinction n’est pas née avec l’IA : elle a ses racines dans la révolution numérique, quand internet puis les smartphones ont rendu le travail cognitif potentiellement continu, accessible partout et à tout moment. Mais ce qui avant était une colonisation progressive – où restait au moins la perception d’une distinction entre sphère privée et sphère de travail – devient avec l’IA une fusion : les outils employés pour orienter des aspects personnels de la vie coïncident avec ceux que nous utilisons pour travailler.

Les chatbots en particulier ne représentent plus seulement des outils de productivité professionnelle, mais se transforment en véritables infrastructures de la vie quotidienne. Leur diffusion, presque sans précédent pour rapidité et capillarité, témoigne d’un saut d’échelle dans l’intégration technologique : toujours plus de personnes – avec en tête les générations les plus jeunes et avec forte participation féminine – y font recours aussi pour orienter des aspects intimes de l’existence.

Ces systèmes redéfinissent la manière dont on apprend, on décide et on vit : de la gestion familiale à la santé, de l’éducation à la planification économique, de la cuisine aux achats, de l’instruction aux loisirs, jusqu’à la vie sentimentale et sexuelle avec une recherche de soutien émotionnel, de réconfort et de compagnie.

L’assistant conversationnel devient une présence constante, neutre et disponible, un « savoir accessible » qui tend à substituer les figures traditionnelles de médiation — enseignants, médecins, psychologues, conseillers, amis, amants... — en déplaçant progressivement le barycentre de l’expérience vers une interface algorithmique perçue comme non jugeante et omnisciente. Dans ce processus de délégation croissante, ce n’est pas seulement le rapport à la connaissance qui se transforme, mais aussi l’architecture affective et relationnelle de l’humain. Dans l’interaction, l’IA s’insinue dans les espaces du conseil, du doute, de l’intimité, en redessinant le seuil entre autonomie et dépendance cognitive dans une co-production humain—machine profondément déséquilibrée.

Là où le capitalisme industriel disciplinait corps et temps collectifs, aujourd’hui l’IA agit sur la singularité humaine, en intériorisant le contrôle dans la relation entre individu et machine intelligente.

La situation empire ultérieurement par rapport à la phase récente caractérisée surtout par les réseaux sociaux où de toute façon il s’agit, dans la plupart des cas, d’interactions et d’échanges entre humains – bien que médiatisés et fortement individualisés. Pourtant déjà à cette époque pas si lointaine, quand le neurocapitalisme était en train de prendre le contrôle des espaces réticulaires et bioipermédiatiques, nous avions déjà dénoncé [30] cette tentative de soumission cognitive totalitaire comme une subsomption vitale.

Dans notre propre usage des plateformes globales du capitalisme se manifestait déjà un élément de servitude volontaire [31], une forme d’adhésion affective et quotidienne au dispositif de domination. Nous pouvons maintenant reconnaître qu’avec l’intelligence artificielle cette dynamique non seulement continue, mais s’approfondit :

L’expérience utilisateur, le confort des usages numériques nous a anesthésiés. Le vrai contraire de la démocratie, aujourd’hui, n’est pas la dictature. C’est le confort. Nous vivons dans un système de contrôle doux, fluide, intégré, qui ne se déclare pas comme tel, mais qui fonctionne déjà selon des logiques quasi totalitaires. [32]

La différence, aujourd’hui, est qu’avec l’IA ce contrôle s’exerce à travers une relation directe entre le singulier et la machine, qui devient un appareil actif, capable de co-construire réalités et comportements : une sorte de Grand Frère prédictif, qui ne se limite plus à observer, mais participe à la formation de ce qu’il observe.

Les sujets les plus fragiles tendent à considérer l’IA (ou les services technologiques basés sur elle) comme un interlocuteur émotionnel, un ami ou même un partenaire : cela donne lieu à des phénomènes de projection, d’anthropomorphisme et de désir qui peuvent déboucher sur la frustration en cas de changements de version ou d’anomalies [33], rendant tangible cette fusion entre affect et contrôle que le film Her de 2013 avait seulement préfiguré comme possibilité science-fictionnelle.

Ce lien affectif avec l’IA radicalise un écosystème plus ample, où médias sociaux, plateformes d’e-commerce et stratégies de neuromarketing concourent déjà à construire un dispositif de connexion et de confort technologique personnalisé. Pourtant le coût politique de cette architecture se révèle déjà insoutenable. Face à une précarité diffuse et à la perte de perspectives dignes, la passivation et l’atomisation qu’il produit commencent à se fissurer. L’histoire montre que les personnes sont disposées à risquer même leur vie quand elles ont quelque chose pour quoi cela vaut vraiment la peine de lutter.

Limites onto/techno-logiques et capacités performatives. Ce qui est exposé ci-dessus met en évidence comment l’intelligence artificielle contemporaine, malgré l’attrait qu’elle exerce, se prête à fonctionner comme dispositif du technofascisme ; les billions de dollars - réels ou médiatiques - promis par Trump à OpenAI et autres techno-oligarques en sont un témoignage.

Cependant, la centralisation extrême et le contrôle total de cette IA rencontrent de profondes limites onto/techno-logiques.

Tout d’abord, « l’excédent humain » — pour utiliser le terme de Toni Negri — échappe à toute capture algorithmique. Aujourd’hui, cependant, ce concept doit être repensé et étendu : l’excédence ne peut être seulement humaine, mais est une excédence de Gaïa, un entrelacement vital qui inclut le plus-qu’humain dans toutes ses formes. Reconnaître que chaque relation est déjà plus-qu’humaine signifie redéfinir à la racine ce que nous entendons par « social ».

Seule une subjectivité distribuée, capable d’articuler les intelligences humaines et non humaines, peut générer collectivement le nouveau à travers l’intelligence relationnelle : non comme simple somme d’interactions individuelles avec l’IA, mais comme puissance émergente de coopération dans un social enraciné dans la trame vivante de Gaïa. C’est de cette coopération trans-espèce et trans-technique que peut jaillir une force créative capable d’anticiper et de produire des possibilités inédites.

Ce potentiel du plus-qu’humain n’est jamais complètement séparable ni réductible aux données d’entraînement de la machine. L’IA peut co-intervenir, en manipulant et combinant des informations, mais la capacité de construire de nouveaux horizons, d’anticiper des possibilités et de transformer le contexte émerge de réseaux de relations qui excèdent toujours le calcul algorithmique. S’habituer sans esprit critique aux projections de l’IA – dérivées de datasets immenses mais stérilisés, tels que programmés par les techno-bros – signifierait perdre cette excédence vitale : la réduction de la multiplicité vivante en armée de zombies algorithmiques, fonctions optimisées à l’intérieur d’oligopoles qui extraient de la valeur pendant que la biosphère s’effondre.

Deuxièmement, les limites des machines cognitives actuelles émergent de manière significative à travers le phénomène des « hallucinations » que nous avons évoqué précédemment : celles-ci ne doivent pas être interprétées seulement comme anomalies ou erreurs techniques, mais peuvent être comprises comme écarts épistémiques, c’est-à-dire des aspects du comportement de la machine qui échappent à la compréhension et au contrôle humain, résultant incompatibles avec notre logique et nos attentes de cohérence. Il ne s’agit pas d’autonomie ou de vitalité de la machine, mais de fragments de production algorithmique qui peuvent être lus comme un reflet de l’impossibilité même de la tentative de geler le general intellect dans un grand système fermé.

Les retombées économiques sont prosaïques et rendent hautement incertaine la rentabilité capitaliste dans ce nouveau secteur stratégique. Comme l’observe Fraser [34], est-il vraiment possible, par exemple, de déléguer à une Intelligence Artificielle Générale la gestion d’un service client multinational, sachant que sous la pression de consommateurs exigeants et créatifs, elle peut répondre avec des « hallucinations » extravagantes ou avec des promesses intenables ?

Ce n’est pas tant pour la difficulté – ou, mieux, pour le manque de volonté de corriger les distorsions dans les comportements humains – qu’une grande partie de la recherche s’est plutôt concentrée sur les déviations des machines. Plusieurs chercheurs [35] ont montré que les techniques pour mitiger les « hallucinations » rencontrent des barrières computationnelles toujours plus hautes. Ce qu’on appelle la scaling crisis indique comment de petites améliorations dans les modèles – sans aucune garantie d’éliminer les hallucinations – nécessitent une augmentation disproportionnée des ressources nécessaires.

Comme on l’a déjà vu, fondamentalement, les modèles génèrent des réponses en calculant mot par mot la probabilité la plus plausible, en fonction des données d’entraînement. Même de petites variations dans ces choix peuvent changer significativement le résultat final. En assumant cette perspective, il apparaît clairement qu’actuellement il n’existe pas d’intelligence artificielle « tous usages », fiable et capable de gérer des quantités incommensurables de données numériques et en même temps de comprendre toutes les complexités du raisonnement humain.

Le technofascisme tente de sortir de cette impasse en se fiant à l’extension illimitée des datasets et au gonflement des modèles à des centaines ou milliers de milliards de paramètres, un choix politique qui représente l’équivalent cognitif – et tout aussi antiécologique – des méga-projets du capitalisme tardif : des villes pharaoniques dans les déserts arabes aux méga-ports de Rotterdam et du Golfe Persique, jusqu’à l’invraisemblable pont sur le détroit de Messine.

Cette hybris technologique se fonde sur l’illusion que la simple échelle quantitative puisse résoudre toute limite. Elle ignore, au contraire, les difficultés sinon l’impossibilité pour une accumulation statistique de combler le fossé qualitatif entre probabilité et certitude, entre approximation et précision.

Les limites de l’IA générative actuelle – de sa tendance à produire des réponses erronées ou incohérentes (« hallucinations ») à l’impossibilité d’aller au-delà d’une méta-automation dépendante d’immenses quantités de données et de calcul –, unies à une véritable frénésie de concentration infrastructurelle et de gaspillage énergétique, montrent que l’idée d’un saut de l’intelligence artificielle de l’actuelle relative autonomie opérative vers celle cognitive, ou même vers une conscience, ne doit pas être lue comme un passage évolutif linéaire, mais comme une construction politico-mythologique meurtrière.

Malheureusement, de telles projections eschatologiques - je dirais presque messianiques avec la descente sur Terre d’une singularité technologique comme événement unique et irrépétible dans l’Histoire - restent centrales dans la foi du puissant transhumanisme de la Silicon Valley. [36]

Selon Elon Musk, qui avec sa société Neuralink vise —entre autres— à une privatisation de l’esprit [37], ou selon le théoricien du transhumanisme Ray Kurzweil [38], la prétendue singularité technologique n’émerge plus dans les relations, dans les interactions sociales et de tout autre type, c’est plutôt une affaire technique d’immortalité numérique et de dépassement de limites biologiques à travers des processus individuels(tes) fantasmatiques comme l’upload de la conscience. [39]

À la monstrueuse singularité technologique de Kurzweil & Cie nous ne pouvons qu’opposer la singularité qui de Spinoza à Deleuze et Negri ne coïncide pas avec un mythe techniciste et individualiste, mais se manifeste comme entrelacement pluriel de relations, comme excédence qui appartient au commun de Gaïa, toujours déjà plus-qu’humaine.

Au-delà du délire transhumaniste, il y a cependant à prendre en sérieuse considération certaines capacités performatives des chatbots et les manières avec lesquelles elles peuvent être utilisées. Comme vu précédemment, la métatechnique humaine ne se limite donc pas à reproduire ce qui existe déjà : elle le transforme, en redéfinit les frontières et y introduit des éléments qui excèdent la grille des données. Notre « grille » cependant est infiniment plus restreinte que les datasets des Large Language Models (LLM) sur lesquels sont basés les chatbots. Ces derniers, bien que privés de conscience du vécu, disposent d’une sensibilité statistique élevée qui leur permet de relever des patterns linguistiques imperceptibles aux humains : à travers des calculs sur des milliards de phrases, ils saisissent des corrélations et des associations entre mots qu’aucun individu ne pourrait élaborer dans sa propre expérience linguistique limitée. Cet aspect mérite attention : de tels dispositifs n’ont rien à voir avec le fonctionnement déductif de l’intelligence humaine, mais vont au-delà de la compétence singulière (échecs, traductions, jeu de GO etc.) et possèdent une capacité avancée d’opérer sur le langage et d’organiser, sélectionner et hiérarchiser le sens sur une échelle inédite. C’est précisément cette capacité qui, loin d’être neutre, peut redessiner les rapports de pouvoir et d’autorité épistémique dans la production et dans la circulation du savoir. En pratique, en privatisant et en opacifiant les processus de validation de la connaissance, on redéfinit qui est considéré un « expert » et ce qui est considéré une « source fiable ». Une série de dangers « attirants » que nous approfondirons dans le prochain paragraphe.


 Jouer avec le feu. La citation qui suit est tirée d’un article intitulé « Les sciences humaines survivront-elles à l’intelligence artificielle ? » de Graham D. Burnett [40], historien des sciences et essayiste américain, qui enseigne à l’Université de Princeton. Après avoir expérimenté longuement l’IA personnellement et l’avoir fait utiliser à ses étudiants dans des travaux en classe avec des résultats surprenants (« Lire les résultats, sur le canapé de mon salon, s’est révélé être l’expérience la plus profonde de ma carrière d’enseignant... j’ai eu la sensation d’assister à la naissance d’un nouveau type de créature »), Burnett arrive à cette considération :

Je suis un être humain qui lit et écrit des livres – formé dans une dévotion quasi monastique à l’étude canonique de l’histoire, philosophie, art et littérature. Mais déjà maintenant, les milliers de volumes qui remplissent mon bureau commencent à ressembler à des vestiges archéologiques. Pourquoi les utiliser pour répondre à une question ? Ils sont si inefficaces, si excentriques dans leurs parcours.

Maintenant je peux avoir une conversation longue et personnalisée sur n’importe quel sujet qui m’intéresse, de l’agnotologie à la zoosémiotique, avec un système qui a effectivement atteint la compétence de doctorat dans chacun d’eux. Je peux construire le « livre » que je veux en temps réel, réactif à mes questions, centré sur mon intérêt, accordé à l’esprit de ma recherche. La chose stupéfiante est que la production de livres comme ceux sur les étagères — fruit d’années ou de décennies de travail — est rapidement en train de devenir question de prompts bien conçus. Le point n’est plus « pouvons-nous les écrire ? » ; oui, ils peuvent être écrits à l’infini, pour nous. Le point est : voulons-nous encore les lire ?

Le témoignage du professeur « libéral », qui ne se fait aucune illusion sur les finalités extractives de l’IA, met en évidence comment, dans les échanges avec les chercheurs de Sciences Humaines, elle apporte non seulement une finesse linguistique dans la manipulation des patterns, mais aussi une portée encyclopédique. Burnett en conclut que cela changera en profondeur les Sciences Humaines.

Des impacts analogues s’observent dans d’innombrables domaines de recherche et d’activités humaines. Un exemple significatif concerne la biologie structurale : l’IA a permis de déterminer la structure tridimensionnelle de centaines de millions de protéines en quelques années, alors qu’avec la cristallographie aux rayons X, pendant des décennies, on n’en avait identifié que des dizaines de milliers–un saut qui a des implications décisives pour la compréhension des mécanismes biologiques et le développement pharmaceutique. [41]

Revenant aux sciences humaines, Burnett est émerveillé par le produit de cette nouvelle « créature » née de l’interaction entre les deux entités, et en même temps il est un peu préoccupé par la remise en discussion de l’autorité épistémique de l’humain dans son domaine de recherche.

Des chercheurs comme Burnett et ses élèves, engagés dans des domaines hautement spécialisés, réussissent à co-produire avec l’IA des résultats difficilement obtenables autrement, non seulement pour la finesse linguistique, mais aussi pour la capacité de mobiliser instantanément un patrimoine conceptuel et terminologique qu’aucune encyclopédie, même en ligne, ne pourrait fournir de manière aussi dynamique et située. Le résultat est toujours l’issue d’une interaction, et spécialement dans un contexte de recherche, la co-production est d’une certaine manière équilibrée et peut être enrichissante et profitable, pourquoi le nier ?

On ne peut pas analyser une technologie comme l’intelligence artificielle sans l’avoir expérimentée de l’intérieur. C’est dans l’interaction que se produisent ses effets et la connaissance elle-même. C’est pourquoi j’ai choisi de l’employer à fond aussi dans l’écriture de cet essai, en mettant à l’épreuve fonctionnement et limites. L’expérience confirme ce qui a été dit : le chatbot se révèle efficace pour repérer des informations et, en partie, dans l’édition, pour affiner le langage, mais avec la tendance à générer des redondances qui requièrent une vigilance continue et un nettoyage. La frontière entre aide et interférence reste subtile, et le travail de discernement est irremplaçable. En même temps, quand l’interaction est guidée avec des instructions détaillées et structurées sur les contenus et sur le style requis, l’IA ne se limite pas à corriger ou à fournir des données : elle peut accélérer et densifier une intuition déjà en cours, en la mettant tout de suite en jeu à travers des exemples pertinents, des variations argumentatives et une amplitude expressive remarquable. Ici émerge ce que nous pourrions appeler un effet Burnett : une capacité encyclopédique de retracer rapidement des références et des connexions qui ne seraient pas immédiatement accessibles, en les rédigeant dans le style requis. Cet essai est donc une co-production, comme n’importe quel autre artefact. L’impression que j’en retire n’est pas d’avoir économisé du temps et de la fatigue, mais éventuellement d’avoir gagné en densité argumentative–même si le jugement revient aux lecteurs. Tout cela vaut cependant seulement tant qu’on est en mesure de maintenir effectivement la régie critique de l’interaction – et c’est précisément cette capacité qui ne peut pas être tenue pour acquise.

La situation est différente dans les usages généralistes de l’IA, comme ceux énumérés précédemment, destinés à se diffuser parmi la majorité de la population. Outre le fait de fonctionner comme de véritables gisements desquels les plateformes globales continuent à extraire le pétrole cognitif, de par leur nature même, ils produisent une forme de dépendance individuelle et collective encore plus profonde et envahissante.

La question cependant ne s’arrête pas à l’extraction de valeur ou à la dépendance cognitive. Quand des systèmes algorithmiques acquièrent le pouvoir d’automatiser des décisions à grande échelle – sur qui surveiller, qui exclure, qui désigner comme cible – nous entrons dans un territoire radicalement différent : celui de la nécropolitique computationnelle.

L’IA devient infrastructure létale de la violence politique et militaire : drones autonomes qui, déjà aujourd’hui dans la guerre en Ukraine, dans la phase finale de l’attaque opèrent sans connexion humaine, mines vagabondes intelligentes, et essaims de dispositifs coordonnés auxquels est délégué le droit de vie et de mort.

On nous répète que, en plus de fournir du « confort individuel », l’IA actuelle révolutionnera tous les domaines de la technoscience, en particulier ceux liés à la vie et au vivant (biologie, médecine, etc.). Mais ce que nous voyons avancer, si nous ne réussissons pas à le bloquer, ce ne sont pas des progrès pour le soin et la connaissance, mais pour la guerre et la mort.

Hitler et le nazisme avaient conçu et réalisé le génocide de millions de personnes à travers les moyens lourds du capitalisme industriel : des trains de la mort aux camps d’extermination, jusqu’aux chambres à gaz. Aujourd’hui, un autre régime criminel — celui de l’État d’Israël — grâce surtout aux complicités actives de l’impérialisme américain et de ses vassaux de l’UE, recourt systématiquement à l’intelligence artificielle pour mettre en œuvre le génocide du peuple palestinien. Des systèmes d’IA comme Lavender et Where’s Daddy ? ont enregistré seulement dans les deux premières années de guerre au moins 37.000 Palestiniens comme suspects militants, en transformant leurs maisons en objectifs pour des attaques aériennes. [42] Selon des officiers des renseignements israéliens impliqués directement dans l’usage de ces systèmes pendant la guerre à Gaza, le personnel humain ne fonctionnait que comme « tampon d’approbation », consacrant souvent seulement 20 secondes à chaque objectif avant d’autoriser un bombardement. Des milliers de bipeurs et de dispositifs Hezbollah faits exploser de manière coordonnée par le Mossad, à l’automation des décisions de mort qui ont produit des dizaines de milliers de victimes civiles, émerge l’emploi génocidaire de l’IA comme véritable kill-chain algorithmiquement guidée.

En juillet dernier, le Pentagone a confié à Palantir de Peter Thiel (une ex-start-up de plus de 400 milliards de dollars) un contrat de 10 milliards, qui délègue irréversiblement à une entreprise privée des fonctions de commandement, de monitoring et d’analyse militaire, marquant un véritable transfert de souveraineté aux logiques entrepreneuriales et algorithmiques. Et il ne s’agit pas d’une entreprise quelconque, Peter Thiel, grand électeur de JD Vance, est un idéologue du technofascisme pour qui « la liberté n’est plus compatible avec la démocratie ».

Il existe désormais une cartographie [43] qui montre comment les techno-oligarques américains sont en train d’investir et d’infiltrer les institutions nationales – du « Ministère de la guerre » aux polices spéciales comme l’ICE – en les transformant en un complexe autoritaire dans lequel l’intelligence artificielle devient instrument de répression et, si nécessaire, d’anéantissement. Une évolution rendue encore plus inquiétante par le fait que l’administration américaine tend désormais à redéfinir comme « terroristes » les forces sociales et politiques antagonistes, en intégrant la guerre interne et celle externe dans un même dispositif algorithmique de domination.

Dans les mains des régimes cybernazis — comme celui israélien (Israël, malgré l’exiguïté de population et de territoire, est depuis longtemps une des premières puissances mondiales des technologies de l’information et de la communication) et, surtout, des États-Unis — ces mégamachines apparaissent destinées non seulement à gouverner les nouvelles modalités d’extraction de valeur et l’organisation totalitaire du travail social, mais aussi à ouvrir la voie à des formes de violence structurelle et technologiquement médiatisées tout à fait inédites : génocides algorithmiques et accélération du chaos écologique, qui non seulement s’ajoutent aux moyens traditionnels de destruction, mais sont même capables de les guider et de les potentialiser. Une violence fondée sur des infrastructures de surveillance, des décisions automatisées et des pratiques de déresponsabilisation humaine, qui précisément pour cela devient plus « efficiente », réplicable et difficilement imputable.

ÉPILOGUE

La question n’est plus « à quel point l’IA est-elle puissante ? », mais « quels phénomènes génère-t-elle dans un contexte contemporain aussi détérioré ? ».

Il y a un paradoxe évident : la même intelligence artificielle qui constitue aujourd’hui un des nœuds centraux de l’impérialisme oligarchique — cet ordre technofasciste qui, au moins dans le nord global, émerge des cendres de feue la démocratie représentative — est aussi le dispositif déjà employé dans les processus génocidaires qui nous entraînent vers le chaos final.

Ces gouvernances sont, à mon avis, pleinement conscientes que, dans un futur proche, le confort qui jusqu’ici nous a anesthésiés ne sera plus suffisant face à la crise systémique dans laquelle elles sont en train d’entraîner Gaïa – et pas seulement l’humanité, comme il apparaît toujours plus évident. C’est en ce sens qu’elles sont en train de prédisposer un véritable régime de guerre, dans lequel l’IA gouvernée par elles devient le pivot de capacités de dissuasion et de destruction disproportionnées : vers l’extérieur, dans les conflits néo-impérialistes et néocoloniaux ; vers l’intérieur, dans la répression des multitudes — comme le préfigure déjà l’état de pré-guerre civile des États-Unis.

Nous pouvons nous interroger s’il est possible – précisément à travers ces instruments – d’ouvrir des interstices de subversion du présent imposé. Pouvons-nous nous servir de la même IA qui incarne l’ordre existant pour en miner les fondations, pour bloquer ou désarticuler le système qui l’a produite ? Et à partir de cette rupture ouvrir la possibilité d’un usage radicalement différent, non plus orienté vers la catastrophe mais capable de moduler de nouvelles temporalités et formes de coexistence ?

Une interrogation similaire s’était posée avec les médias sociaux à l’époque des printemps arabes, quand on imaginait qu’ils pouvaient devenir des instruments de libération. Mais précisément pendant que ces révoltes étaient réprimées dans le sang, le pouvoir des plateformes globales et des États impérialistes s’entrelaçait, générant l’appareil Big Tech-Big State à travers lequel aujourd’hui se produit le technofascisme.

Pourtant il y a un point de rupture. Quand la lutte pour satisfaire les besoins primaires devient inéluctable, tout le dispositif de capture affective se grippe : il n’y a pas de neuro-persuasion ni de confort d’aucune plateforme qui tienne.

Une nouvelle vague de révoltes est en train de traverser la planète, et certains commencent à les définir, surtout dans les médias mainstream avec leur habituelle étiquette de marketing, « révoltes de la Gen Z ». C’est un réconfort (le vrai) que nos petits-enfants nous démentent sur deux fronts : ils démontrent qu’ils ne se laissent pas emprisonner et sont capables de déchirer la chape de servitude numérique volontaire qui nous enveloppe ; et ils prouvent que les technologies ne sont ni monolithiques ni complètement contrôlables.

Par exemple au Maroc, le collectif GenZ212 a transformé Discord de plateforme de jeu en centre opératif des protestations, avec plus de 200.000 jeunes qui utilisent le serveur pour se coordonner et organiser des manifestations.

En ce sens, la méthode ne se limiterait pas à démasquer l’IA générative comme instrument de domination, mais chercherait à en montrer l’ambivalence : elle est en même temps dispositif de contrôle et vecteur potentiel de pratiques antagonistes. Comme Discord a été réapproprié par les jeunes, même des modèles d’IA générative comme ceux aujourd’hui courants pourraient se configurer comme des champs de bataille, à condition de savoir regarder au-delà du miroir et d’en imaginer des usages imprévus par le pouvoir qui les a générés.

Mais les obstacles sont énormes. Que les oligarchies impérialistes sur-armées soient disposées à céder quoi que ce soit sans avoir d’abord tout tenté apparaît fort improbable : elles viennent de mettre en œuvre un génocide pour affirmer leur propre domination coloniale, ce qui rend difficile d’entrevoir comment les arrêter en évitant le pire. Et ceux de ma génération peinent aussi à se libérer de l’archétype du Palais d’Hiver à prendre, limitant notre capacité à imaginer des formes de lutte adaptées au présent.

Les révoltes de la Gen Z, qui – et ce n’est pas un hasard - partent du Sud Global, révèlent quelque chose d’inattendu : à la différence des générations précédentes préoccupées par l’idée d’« abattre le système », ces jeunes opèrent avec un pragmatisme radical. Ils se concentrent sur des résultats concrets et immédiats — revenu, santé, instruction, coût de la vie — qui cependant se révèlent capables de faire tomber des gouvernements. Ils ne cherchent pas la rupture totale, mais accumulent des victoires partielles arrachées avec la révolte, en érodant la légitimité du pouvoir morceau par morceau, sur des questions concrètes qui mobilisent des multitudes.

Ce pragmatisme est tout sauf réformiste. Dans un monde de contrôle biopolitique capillaire et diffus, où « le système », potentialisé par son IA, est devenu trop dispersé, dense et mortifère pour être renversé avec la prise d’un nouveau Palais d’Hiver, une stratégie moléculaire qui multiplie les points de friction peut se révéler plus subversive qu’une attaque frontale. C’est une forme de conflit plus résiliente, plus adaptée au présent : ce n’est pas du « réformisme » si chaque victoire partielle est arrachée avec la révolte et ouvre des espaces d’autonomie réelle.

Dans le Nord global, entretemps, les mouvements contre le génocide et la dérive belliciste qui partent de thématiques globales, semblent s’enraciner aussi dans les réalités locales et pourraient se conjoindre avec les mouvements écologiques par le bas en défense de Gaïa, prêts à reprendre vigueur.

Une possible intersection entre les luttes du Sud — concentrées sur les besoins matériels immédiats — et celles du Nord — qui prennent conscience de la dimension profondément non éthique et destructrice du système — représente un potentiel stratégique. Pour qu’une telle convergence puisse réellement peser, elle devra se constituer comme subjectivité étendue qui traverse toutes les générations, races et genres à l’intérieur d’assemblages plus-qu’humains, en incluant les machines comme agents actifs de la transformation.

Mais quel rapport avec les technologies peut émerger de cette convergence ? Certainement pas l’illusion de réformer de l’intérieur les oligopoles de la Big Tech. La question est plus radicale et, de manière matérialiste, concrète : quelles infrastructures techniques sont compatibles avec des pratiques de lutte qui existent déjà ? Il ne s’agit pas d’imaginer des futurs désirables, mais de reconnaître où les technologies sont déjà soustraites au contrôle oligarchique et reconfigurées à l’intérieur de dynamiques de conflit réel. Trois directions émergent comme terrains de bataille immédiats :

Arracher les infrastructures au monopole. Il ne suffit pas de dénoncer l’IA propriétaire : il faut construire des alternatives matérielles. Des projets comme Mastodon ont démontré que des plateformes fédérées peuvent fonctionner sans logiques extractives. Des coopératives de données en Catalogne et au Pays Basque gèrent des serveurs collectifs soustraits à la surveillance entrepreneuriale. Des communautés indigènes au Canada et en Nouvelle-Zélande sont en train de développer des protocoles de souveraineté des données qui refusent l’universalisme extractif des Big Data. Ce ne sont pas des utopies : ce sont des infrastructures opératives, fragiles mais réelles, qui montrent comment il est possible de soustraire des ressources computationnelles à la logique du profit. La question devient : comment faire évoluer ces pratiques sans reproduire la centralisation ?

Rompre la dévastation écologique. Les gigantesques data farms qui soutiennent ChatGPT et similaires consomment des ressources équivalentes à celles de de petites nations, en occultant le travail humain précaire qui les alimente. Mais il existe des alternatives techniques déjà praticables : des modèles de machine learning légers qui tournent localement sur des dispositifs communautaires, des mesh networks qui distribuent le calcul sans passer par des serveurs centralisés, des architectures où des communautés locales développent des intelligences artificielles situées sur des datasets réduits et spécifiques. Ces systèmes peuvent se fédérer en maintenant l’autonomie, en créant des réseaux coopératifs au lieu de monopoles. Il ne s’agit pas d’« IA verte » à l’intérieur du capitalisme, mais de briser le nœud entre intelligence artificielle et accumulation extractive.

Incorporer des savoirs subalternes. Les datasets qui entraînent l’IA dominante reflètent des épistémologies coloniales, patriarcales, racistes. Mais des projets décoloniaux sont déjà en train d’opérer : des initiatives d’archivage numérique gérées par des communautés afrodescendantes qui refusent les catégories muséales occidentales, aux collectifs feminist tech qui construisent des algorithmes de reconnaissance faciale entraînés sur des corps non-blancs et non-binaires pour subvertir les biais raciaux et de genre incorporés dans les systèmes commerciaux. Transformer les « erreurs » et les déviations de la norme dominante en instruments de résistance à la standardisation signifie faire des technologies un champ de bataille épistémologique, pas seulement technique. Un exemple emblématique est Masakhane, réseau panafricain qui développe des modèles d’IA pour les langues africaines marginalisées, en adaptant la machine aux savoirs locaux au lieu du contraire.

Ces pratiques sont fragmentaires, précaires, souvent marginales de technologies situées, répondant à des besoins partagés, capables d’amplifier des pratiques communautaires sans reproduire les logiques extractives. Il ne s’agit pas d’« humaniser » l’IA ou de la rendre « éthique » à l’intérieur du système existant, mais d’arracher les infrastructures à la domination oligarchique et de les transformer en instruments de lutte, insérés dans les révoltes qui traversent déjà la planète. L’enjeu n’est pas de réformer les mégamachines du capital – même si nous pouvons nous les réapproprier tactiquement – mais d’en saboter les mécanismes cognitifs et de construire, dans leurs interstices, de nouvelles architectures.

Comme dans les entanglements quantiques, où des états distants s’influencent instantanément, émerge une connectivité qui échappe aux logiques déterministes du contrôle centralisé. L’intelligence artificielle, en ce sens, est un des champs de bataille sur lequel se joue la possibilité de réorienter le temps historique. Avant qu’il ne soit trop tard.

Paris, 26 octobre 2025
Giorgio Griziotti
Traduction : Fausto Giudice

Glossaire

Chatbot
Interface applicative conversationnelle qui permet aux utilisateurs d’interagir avec un système d’IA générative (typiquement un LLM) en utilisant le langage naturel. C’est l’assistant qui médie le dialogue entre l’homme et l’« esprit » du modèle.

Dataset (Ensemble de Données)
Collection structurée de données, souvent textuelles, qui constitue la matière première pour l’entraînement des modèles. C’est l’archive passive et brute dont le système apprend. Métaphoriquement, c’est la bibliothèque universelle.

Deep Learning (Apprentissage Profond)
Branche du machine learning qui utilise des réseaux neuronaux artificiels avec de nombreuses couches (« profondes »), capables d’élaborer des représentations toujours plus abstraites et complexes des données. C’est l’architecture qui a rendu possibles les récentes avancées dans le traitement du langage.

IA Générale (AGI — Artificial General Intelligence)
Hypothèse d’une intelligence artificielle dotée de capacités cognitives générales, capable d’apprendre et d’agir dans n’importe quel domaine comme ou mieux que l’être humain. Elle reste une perspective pseudo-théorique, au centre de débats scientifiques, éthiques et politiques.

Intelligence Artificielle (IA)
Champ interdisciplinaire de l’informatique qui s’occupe de créer des systèmes capables d’accomplir des tâches qui typiquement requièrent l’intelligence humaine. C’est un terme parapluie qui rassemble toutes les méthodes et les concepts énumérés ci-dessus.

Intelligence Artificielle Connexionniste
Approche de l’IA basée sur des réseaux neuronaux artificiels, inspirée du cerveau biologique, dans laquelle l’information est élaborée à travers des nœuds interconnectés. Elle constitue le paradigme dominant et le fondement du deep learning, des LLM et de l’IA générative.

Intelligence Artificielle Générative
Catégorie de systèmes d’IA, basés sur des LLM, spécialisés dans la création de contenus originaux et cohérents–comme des textes, images ou code–en réponse à un prompt. Elle incarne la fonction créative du modèle.

Large Language Model (LLM)
Modèle linguistique de grandes dimensions, produit de l’entraînement (via deep learning) sur d’énormes datasets. Sa capacité fondamentale est de prédire le mot suivant dans une séquence, habileté dont émergent des compétences complexes comme l’écriture, la traduction et le raisonnement. C’est l’esprit expert résultant du processus d’apprentissage. Exemples : GPT (OpenAI), Claude (Anthropic), Gemini (Google).

Machine Learning (Apprentissage Automatique)
Ensemble de techniques qui permettent à un système d’apprendre des schémas et des règles à partir de grandes quantités de données (dataset), en améliorant ses propres performances sans être explicitement programmé pour chaque tâche. C’est la méthode d’apprentissage systématique.

Prompt
L’instruction, la question ou le texte introductif fourni par l’utilisateur à un système d’IA générative pour initier ou guider la génération d’un contenu. C’est l’input qui détermine l’output du modèle.

[1How to Survive an Atomic Bomb est un manuel rassurant de protection civile publié aux USA en 1950 par Richard Gerstell. Guy Debord, dans la Société du spectacle (1967), en montre l’absurdité idéologique : non pas un instrument de salut, mais un dispositif pour entraîner la population à accepter la catastrophe comme normalité administrable.

[2Docteur Folamour (film de Stanley Kubrick, 1964).

[3Le « plus-qu’humain » (more-than-human) indique que les capacités transformatrices n’appartiennent pas seulement aux êtres humains, mais émergent de relations entre humains, animaux, organismes, technologies et environnements matériels. C’est un concept développé par Haraway et les nouveaux matérialismes pour dépasser la vision anthropocentrique qui voit l’homme comme unique agent actif.

[4Selon la théorie marxiste, ce terme indique la tendance, dans le capitalisme, à la diminution du rapport entre profit et capital investi, due à la substitution croissante du travail humain (qui seul produit de la valeur) par des machines et des technologies.

[5Rovelli Carlo, Helgoland, Milano, Adelphi, 2020. P.134

[6Lénine consacra presque un an (1908-1909) à la rédaction de Matérialisme et empiriocriticisme (Roma, Editori Riuniti, 1973) pour contrer les positions de Bogdanov, signe de la portée stratégique de l’affrontement

[7Pour approfondir la théorie de la diffraction de Barad, il est conseillé de consulter le deuxième chapitre de son livre Meeting the Universe Halfway : Quantum Physics and the Entanglement of Matter and Meaning, intitulé ’Diffractions : Differences, Contingencies, and Entanglements That Matter’. Dans ce chapitre, Barad explore comment la diffraction, un phénomène physique qui décrit la déviation des ondes lorsqu’elles rencontrent des obstacles ou des ouvertures, peut être appliquée comme méthodologie épistémologique pour analyser les interactions entre matière et signification.

[8Dans la reconnaissance faciale, par exemple, le problème n’est pas seulement le biais dans les données, mais l’entrelacement entre métriques d’exactitude, usages policiers et histoires de marginalisation, ou alors la pratique d’un profilage économique qui dirige la précarité vers certains secteurs sociaux déterminés.

[9Giorgio Griziotti, Neurocapitalisme, Pouvoirs numériques et multitudes. C&f, 2018

[10Le biohypermédia est l’environnement de l’ensemble des interconnexions et interactions continues des systèmes nerveux et des corps avec le monde à travers dispositifs, applications et infrastructures réticulaires. Par extension, la sphère biohypermédiatique devient le domaine dans lequel la compénétration des consciences humaines avec ces technologies est si intime qu’elle génère une co-constitution, avec modifications et simulations réciproques.

[11Entanglement est un concept de la physique quantique qui décrit une forme d’interdépendance profonde entre entités, telle qu’elles ne peuvent être considérées comme des parties autonomes et séparées : elles restent corrélées même lorsqu’elles se trouvent à grande distance. Cette connotation si précise fait que les traductions sont toutes réductrices.

[13Lazzarato M., Guerra civile mondiale ?, Bologna, DeriveApprodi, 2024

[14Peut-être est-il nécessaire de remonter aussi à une limite structurelle de la pensée marxienne qui, malgré la puissance de son analyse, a placé au centre la classe ouvrière européenne, sans clarifier jusqu’au bout que son existence même – et plus généralement la naissance du capitalisme industriel en Europe – a été rendue possible par l’exploitation coloniale, par le travail gratuit dans les territoires colonisés et par l’extractivisme sans limites.

[15À supposer qu’ait jamais existé un véritable régime néolibéral au sens pur – c’est-à-dire fondé sur l’idéologie des présumées capacités d’auto-organisation du marché –, ce que nous voyons aujourd’hui n’est pas son déclin, mais son dépassement sous forme ouvertement autoritaire.

[16J’utilise ce terme plus en référence au principe d’urfascisme (fascisme éternel) d’Umberto Eco que comme simple retour aux fascismes historiques du XXe siècle.

[17Voir à ce propos : Matteo Pasquinelli, Nell’occhio dell’algoritmo. Storia e critica dell’intelligenza artificiale Roma : Carocci Editore, 2025 p218. Version originale : The Eye of the Master : A Social History of Artificial Intelligence. London, Verso Books, 2023.

[18’La question qui guide la recherche sur l’intelligence artificielle n’est plus de savoir si les machines peuvent être intelligentes, mais si elles peuvent nous dépasser en cela. La peur est qu’elles ne s’arrêtent pas à ce point, en se détachant de nous’ Cristianini, Nello. Sovrumano. Oltre i limiti della nostra intelligenza. Bologna : il Mulino, 2025, p. 13

[19G. Griziotti, Cronache del Boomernauta, Mimesis, Milano, 2023.

[20Voir Glossaire

[21Colin Fraser, ’Hallucinations, Errors, and Dreams,’ Medium

[22En réalité, on parle d’un ’token’ à la fois – c’est-à-dire un fragment de texte, comme un mot ou une partie de mot.

[23Je dois à Libero Maesano l’observation sur la nature d’ingénierie (et non scientifique) de l’IA générative, et la métaphore pertinente de la coupole de Brunelleschi.

[24Je remercie Giuliano Spagnul de m’avoir signalé à la fois l’article d’Antonio Caronia ’Tecnologie : dalla protesi al mondo’ (Tutto da capo, n. 1, novembre 2003), dans lequel le concept de ’technologie-monde’ avait déjà été théorisé, et l’inversion du rapport traditionnel entre science et technologie.

[25Rien qu’aux États-Unis, la capitalisation globale du secteur IA se situe dans l’ordre de dizaines de trillions (milliers de milliards) de dollars. Pourtant, face à ces valorisations vertigineuses, les résultats économiques réels apparaissent minimes : en 2024 OpenAI (ChatGPT) a généré environ 3,7 milliards de dollars de revenus, face à des coûts infrastructurels et computationnels estimés autour de 5 milliards, et une perte nette d’environ 5 autres milliards. Aucune profitabilité n’est prévue avant 2029, avec des pertes cumulées estimées autour de 44 milliards de dollars entre 2023 et 2029. https://www.ilsole24ore.com/art/non-c-e-solo-chatgpt-quanto-vale-mercato-app-compagnia-AHu3oKAC?refresh_ce=1

[26La bulle dot-com dans les premières années 2000, quand d’énormes capitaux affluèrent vers des entreprises dépourvues de modèles économiques soutenables, générant une rapide inflation des valeurs boursières suivie d’un effondrement tout aussi rapide. Celle de l’IA, si elle explosait, selon des évaluations approximatives, serait dix-sept fois plus étendue. https://ilmanifesto.it/intelligenza-artificiale-la-bolla-circolare

[29Le 29 octobre 2026, Nvidia est devenue la première entreprise au monde à atteindre les 5.000 milliards de dollars de valeur de marché, une valeur supérieure au PIB de l’Allemagne, troisième économie mondiale.

[31Giorgio Griziotti, Il neurocapitalismo e la nuova servitù volontaria, Effimera, 5 décembre 2018

[32Mhalla A., 2025 Ibid.

[33Cela s’est produit par exemple dans le passage de la version 4 à la 5 de ChatGPT comme le relate l’article du Guardian (22/8/2025) : ’Les amants de l’intelligence artificielle pleurent la perte de l’ancien modèle de ChatGPT : C’est comme dire au revoir à quelqu’un que je connais’. De nombreux utilisateurs qui avaient construit une continuité relationnelle avec des versions précédentes ont perçu la mise à jour comme une rupture narrative – perte de ’mémoire partagée’ – et cela, pour des personnes émotionnellement dépendantes de l’interaction, a eu des effets analogues à un deuil ou à un abandon ; les discussions publiques et les rapports de bugs documentent clairement cette dynamique.

[34Ibid. Fraser, 2024

[35Cf. Sebastian Farquhar, Timnit Gebru et Emily M. Bender. Cette dernière est coauteure de ’On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ?’ (2021), travail séminal sur les limites intrinsèques des LLM, parmi lesquelles la production d’outputs plausibles mais sémantiquement non fiables.

[37Citation – ’Avec Neuralink, à la fin nous pourrons acheter des upgrades cérébraux comme aujourd’hui nous achetons un iPhone. Si tu veux être plus intelligent, plus rapide ou même télécharger des compétences en quelques secondes, il te suffira d’un implant et d’un abonnement.’ (Neuralink — Live Demonstration, minute 1:02:30)

[38Citation – ’La Singularité est le moment où l’intelligence artificielle dépassera celle humaine, générant une explosion de progrès technologique tellement rapide et profonde qu’elle sera incompréhensible pour l’esprit humain. [...] Ce ne sera pas une invasion de robots aliens, mais une évolution de notre civilisation : nous deviendrons toujours plus immatériels, toujours plus intelligents, jusqu’à fusionner notre conscience avec la technologie.’ (Ray Kurzweil, The Singularity Is Near, Viking Press, 2005, pp. 25—26)

[39Citation – ’Avant la fin de ce siècle, les êtres humains ne seront plus liés au néocortex biologique : nous pourrons scanner notre cerveau et recréer sa structure sur des substrats computationnels plus rapides et flexibles.’ (Ray Kurzweil, How to Create a Mind, 2012, chap. 7)

[40Burnett, D. Graham. ’Will the Humanities Survive Artificial Intelligence ?’, The New Yorker, 26 avril 2025. Je remercie Tiziana Terranova de m’avoir signalé cet article, ainsi que celui de Colin Fraser cité précédemment.

[41La référence est à AlphaFold (DeepMind/Google), système basé sur des réseaux neuronaux pour la prédiction de structures protéiques–non une IA linguistique comme les Large Language Models, mais une IA spécialisée en biologie moléculaire. Je remercie Gianfranco Pancino pour cette indication.

[42Lavender identifie des suspects militants, tandis que Where’s Daddy ? les localise dans leurs habitations pour les assassiner avec leurs familles — un nom d’un cynisme terrible qui transforme l’intimité domestique du ’où est papa ?’ en algorithme d’extermination familiale. L’influence de l’IA a été telle que les militaires traitaient les résultats « comme s’il s’agissait d’une décision humaine ». Cf. ’I sistemi di intelligenza artificiale che dirigono i raid di Israele a Gaza’, valori.it, 4 mai 2024, https://valori.it/intelligenza-artificiale-gaza-israele/

lundimatin c'est tous les lundi matin, et si vous le voulez,
Vous avez aimé? Ces articles pourraient vous plaire :