Quand l’humain rêve d’IA

« La question de l’IA s’incarne par la fonction recherche qui s’installe dans nos têtes à force d’utiliser google »
Rubrique cyber-philo-technique

Rubrique cyber-philo-technique - paru dans lundimatin#313, le 22 novembre 2021

Pour le cinquième épisode de notre rubrique cyber—philosophique, voici une réflexion sur le lien entre humanisme et intelligence artificielle. Derrière les promesses ou les menaces d’intelligences sur-humaines tantôt bienveillantes (le Watson d’IBM), tantôt hostiles (Terminator), le texte propose d’envisager les effets présents et concrets des technologies numériques. Et de fait, les drônes tuent, les algorithmes mettent au travail et google imprègne nos modes d’existence toujours plus profondément.

Dès qu’il est question d’Intelligence Artificielle (IA), une question surgit : les machines vont-elles nous remplacer ? Elon Musk en est persuadé lui qui ne cesse de déclarer que l’Intelligence Artificielle (IA) est « notre plus grande menace existentielle ». L’IA représente selon lui « une menace bien plus grande que les bombes nucléaires pour l’humanité » [1]. Elon Musk sait de quoi il parle. Il développe les voitures autonomes TESLA, des projets de vols dans l’espace et de colonisation de Mars pour quitter la Terre bientôt consumée. C’est que, selon lui, « l’homme risque, non pas de disparaître mais d’être dépassé par les machines (…) Face à la lenteur cérébrale des humains, il craint que les machines ne s’impatientent. Pour elles, « ce sera comme parler à un arbre » » [2]. Il faudrait donc accélérer la cadence vers un horizon trans-humaniste. Jack Ma, le fondateur chinois du géant de l’e-commerce Alibaba, se montre plus optimiste sur les bienfaits d’une telle alliance : « « les ordinateurs sont peut-être plus intelligents mais les humains le sont beaucoup plus », a estimé le multimilliardaire chinois (…) « nous avons inventé les ordinateurs mais je n’ai jamais vu un ordinateur créer un être humain » » [3]. Dans tous les cas, selon eux, l’IA est inéluctable, elle nous sauvera ou nous détruira. Ces deux personnages se donnent les moyens d’une telle ambition. Qu’annoncent-ils exactement, et en quoi cela nous concerne ?

Elon Musk et Jack Ma partagent assurément le même horizon, celui d’une combinaison entre l’IA et l’humanité. Le projet neuralink d’Elon Musk « doit permettre à l’homme de combiner son intelligence avec l’IA par le biais d’un implant, afin d’augmenter ses capacités cognitives » [4]. La peur qu’il mobilise et les appels à la législation ne sont donc pas contre l’IA. Ce que Musk dit aux gouvernements du monde c’est plutôt « faîtes avec moi et mon IA, pas celle des autres, sinon ça ira mal ». On se passerait bien de ses avertissements, et surtout des solutions qu’il met en œuvre. Au-delà de Musk, on se doit d’écouter avec prudence la menace récurrente d’un grand remplacement des hommes par les machines et l’automatisation, comme en parlent souvent les experts du Financial Times ou d’autres [5]. On se propose ici d’en explorer les termes et les impasses.

Que font exactement les machines et l’IA ? Leur introduction est souvent brandie (par les patrons) comme source de chômage, voire de disparition des ouvriers. Pourtant, de la chaîne fordiste à aujourd’hui, les machines ne nous remplacent pas. Elles mettent toujours plus au travail, quitte à réduire ce travail à du clic [6]. L’automatisation transforme le travail mais ne l’abolit pas. Elle ne crée pas même de nouveaux emplois
 [7] et le fait d’être connecté en permanence a bien au contraire étendu considérablement l’emprise du travail pendant que les plateformes permettent de multiplier les activités à revendre. Du côté du travail, le grand remplacement est une menace utile. Mais quand les termes d’une question nous sont imposés par des gens comme Elon Musk, il est plus prudent de s’en défaire.

Pour ouvrir d’autres perspectives, Benjamin H. Bratton, dans le texte « Outing IA. Reckoning with Turing Tests » [8] décrit combien les représentations les plus courantes de l’IA mettent en scène une super-intelligence artificielle qui adopte des contours humanoïdes (dans le cas de Terminator par exemple) et des passions souvent humaines - trop humaines - à la façon de Pinocchio qui rêve de devenir un enfant comme les autres (le film IA de Steven Spielberg reprend ce schéma). Dans cet imaginaire, les intelligences artificielles, parce qu’artificielles, semblent n’aspirer qu’à nous ressembler. C’est ce désir qui les rend menaçantes, dès lors qu’elles prendraient le pouvoir telles des dictateurs capables de tout maîtriser (comme le craint Elon Musk). Une telle intelligence suprême viendrait prendre la place des États-nations et des gouvernements. Elle achèverait la mise en calcul du monde. Cette peur d’une IA nous en apprend plus sur ceux qui l’énoncent que sur l’IA elle-même.

En effet, la menace d’un grand remplacement affirme en miroir que le propre de l’humain est ce qu’il y a de plus désirable, le sommet à l’aune duquel les autres intelligences sont évaluées. Anthropos se place au centre du monde et à la source de tout. Même quand il parle de l’IA, il ne parle que de sa puissance de création à lui. Cette perspective est toutefois affirmée comme une pure possibilité, détachée de la réalisation concrète du calcul et des machines. Ce détachement tend à masquer l’existence historique au long cours des systèmes de calculs, de l’extraction mondiale de données et de tout un ensemble de technologies d’ores et déjà omniprésentes. C’est cet arrière-fond déjà là qui nous importe et qu’évacuent Elon Musk et d’autres, tout en participant activement à sa construction. C’est aussi l’occasion d’introduire quelques enjeux de l’intelligence des machines et l’effet de décentrement qu’elle provoque.

L’extension de l’intelligence n’est pas qu’humaine

Comme le souligne Benjamin H. Bratton, l’idée de définir l’IA à partir de sa capacité à passer pour un humain remonte aux années 1950. Le mathématicien Alan Turin décrit à l’époque dans « Computing machinery and intelligence » ce que l’on désigne depuis comme le test de Turing [9]. Dans ce test, un humain est confronté à deux interlocuteurs, un ordinateur et un autre humain. En quelques questions, la personne doit pouvoir dire lequel de ses deux interlocuteurs est un ordinateur. Si elle ne peut les distinguer, le logiciel de l’ordinateur a réussi le test. Turing élabore ici une variation d’un jeu dans lequel deux interlocuteurs cachés, un homme et une femme, essaient de tromper une tierce personne sur leur genre respectif par une série de questions écrites. Pour gagner, un des joueurs doit bel et bien faire deviner son genre et l’autre tromper le troisième interlocuteur. Dans le jeu de Turing, lu littéralement, l’ordinateur doit prétendre être une femme, en compagnie d’un autre joueur cherchant à se faire passer pour un homme ou une femme afin de tromper la tierce personne (tous les cas sont possibles, le jeu peut varier). Dans le monde réel, Turing lui-même eut à cacher son homosexualité pour éviter la condamnation en vigueur en Angleterre qui soumettait à la castration chimique par prise d’œstrogènes tout homosexuel identifié. Alan Turing se suicidera au cyanure le 8 juin 1954 à Wilmslow pour éviter cette condamnation, et ne sera gracié par la reine à titre posthume qu’en 2013 (Bratton le souligne, les milliers d’autres homosexuels anglais condamnés, moins célèbres, n’ont pas été graciés). En vérité, le test de Turing vérifie si un ordinateur est capable de bluffer. L’ordinateur réussit le test s’il est capable de se faire passer pour un humain, tout comme Turing eut à mentir. Dans les deux cas, se voir soumis au test relève de l’interrogatoire policier dans des termes imposés. Si l’IA existe, elle exige de penser une forme d’intelligence qui n’aura rien d’humaine à moins qu’on insiste pour qu’elle prétende l’être. Le test de Turing implique, selon Bratton, de se confronter au problème, moralement et psychologiquement intolérable pour l’anthropocentrisme humaniste, que « l’intelligence puisse être à la fois réelle et inhumaine » [10], alien (pour reprendre une expression de Bratton et d’autres [11]). Effectivement, le fait de penser acquiert avec les machines une extension qui dépasse la définition habituelle de l’intelligence.

Les leçons de l’IA se trouvent donc moins dans la preuve qu’une machine peut penser comme nous que dans l’extension de ce que penser peut signifier. Pour faire avec la technique, nous avons tendance à l’anthropomorphiser, manière de nous rassurer nous-mêmes sur ce que sont les machines qui nous entourent. « Par exemple, nous parlons de connectiques mâle ou femelle pour les prises jacks, et dans ce cas, l’acte de genrer la technologie n’a rien à voir avec les processus de traitements informatiques mais bien plus avec notre besoin d’anthropomorphiser » [12]. L’intelligence, telle qu’on l’a décrit le plus souvent à propos des machines, n’est souvent qu’une façon de nous projeter nous et nos habitudes dans le monde des machines, d’abolir l’altérité pour nous rassurer. La peur de l’IA nous en dit donc souvent plus sur celui qui parle que sur l’objet concerné. Cela vaut sans doute aussi pour l’humanisation de l’intelligence des plantes ou des arbres que l’on trouve dans des livres comme « la vie secrète des arbres » [13]. Bratton propose plutôt d’examiner comment l’identification marche de notre côté de l’interaction. Cela nous force à en passer par des effets de désenchantement plus utiles pour comprendre l’intelligence des machines. « Il est de toute évidence bien plus simple de fabriquer un robot auquel un humain attribuera des émotions (et pour lequel, en retour, il aura donc des émotions, positives ou négatives) que de fabriquer un robot qui a effectivement des émotions » [14].

Confronté à un robot, un humain lui confère par empathie des émotions, voire une personnalité, mais ce ne sont que des projections. Le film « Her » de Spike Jonze dans lequel le personnage principal, Théodore (joué par Joaquin Phoenix), tombe amoureux de son assistante virtuelle met en scène ce jeu de dupes. Théodore tombe éperdument amoureux de l’IA. Mais à la fin du film, celle-ci abandonne ce compagnon humain, limité, et préfère s’envoler vers d’autres amours machiniques. Elle le laisse seul avec sa solitude d’humain. C’est l’intérêt de la notion d’intelligence alien  : prendre garde à ne pas subsumer sous notre idée d’intelligence les autres formes de pensées. Selon Benjamin H. Bratton, le risque est de perpétuer « une relation à la technique qui nous a amené au bord de la 6e grande extinction. Il se pourrait que l’anthropocène elle-même vienne moins du développement technique devenu fou que de l’héritage humaniste qui comprend le monde comme ce qui nous a été donné pour nos besoins et créé à notre image » [15]. Une IA développée n’est pas une intelligence « pour nous », modelée comme la nôtre. Pour notre propre éclaircissement, l’IA n’est pas à regarder comme une intelligence prétendant être humaine. « Ce n’est pas seulement d’une grande naïveté épistémologique, cela peut aussi conduire à des souffrances horribles. Ce qu’on ne définit pas comme nous indiffère. Par exemple, les cétacés, telles les baleines et les dauphins ont un langage, mais qui n’a rien du nôtre, et pendant des siècles la philosophie ne pouvait rendre compte de leur intelligence, et donc de la souffrance qu’on leur infligeait » [16].

Distribuer les cerveaux, multiplier les machines


Robots dansants de chez Boston Dynamics

En percevant l’IA comme miroir de nous-mêmes, la discussion prend la forme d’un débat moral sur les limites qu’il faudrait imposer ou non à la puissance humaine. Cette façon de poser le problème masque ce que vivre au milieu et parmi des intelligences synthétiques très différentes de l’intelligence humaine signifie dès maintenant. Dès lors que des capteurs, des senseurs, des systèmes de captures et de traitement de données à l’échelle massive se répandent un peu partout dans l’environnement, l’intelligence des machines prend corps, s’inscrit matériellement dans les diverses infrastructures qui la font exister et qui connectent entre elles l’ensemble des machines. Depuis 1945, il existe plusieurs systèmes mondiaux de géolocalisation, de suivi de l’envoi des missiles, de connaissances du climat et de collecte d’informations. Le monde est d’ores et déjà strié de systèmes d’informations, qui sont l’existence concrète et non mythique de l’IA aujourd’hui. Aujourd’hui, les systèmes de données massives sont omniprésentes et plus de 12 milliards de puces RFID connectent des marchandises et des choses à travers le monde. L’IA n’est pas qu’une potentialité future, mais elle n’est pas non plus l’ultime menace qui nous attend.

En 2015, quand Benjamin H. Bratton écrit son texte, Stephen Hawking, Noam Chomsky, Elon Musk, Dennis Hassabis (alors chef de l’IA chez Google) viennent de signer une tribune demandant l’interdiction des systèmes d’armements offensifs autonomes [17]. La tribune annonce une sorte d’apocalypse dans laquelle ces armes pourraient, si on les laisse s’installer, remplir différentes missions telles que « des assassinats, des interventions de déstabilisation des nations, de soumissions des populations et de tueries ciblées portant sur des groupes ethniques déterminés ». Dès 2015, et plus encore aujourd’hui, force est de constater que ces assassinats ciblés ont eu lieu, en l’absence de tout Terminator [18]. Le mythe de l’IA surpuissante permet d’annoncer une frontière qui pourrait être dépassée afin de mieux masquer l’obscurité de la distinction entre autonomie des machines et assassinat à distance par drone interposé en Afghanistan ou ailleurs via un programme informatique installé sur un ordinateur localisé dans une base militaire aux États-Unis. La géolocalisation par SIM Card était déjà en place dans les programmes d’assassinats ciblés américains [19]. La menace brandie dans la tribune oblitère la discussion sur l’intelligence bien réelle et actuelle de ces systèmes autonomes. Le calcul algorithmique procède par réduction, abstraction du réel en sélectionnant certaines caractéristiques qui importent ou non. Comme l’évoque Bratton : « Peut-être que le véritable cauchemar, pire encore que celui où une machine veut vous détruire, est celui où une machine ne vous accorde aucun intérêt, pas même en tant qu’élément discret à connaître. Le fait de n’être pas vu du tout est pire encore que d’être perçu comme un ennemi potentiel » [20]. La conception de systèmes donnés se fonde sur des méthodes de classifications. Tout commence par une modélisation statistique dont les critères doivent être précisément choisis (c’est tout le travail des data scientists et d’autres). Le calcul informatique ne sait donc pas tout du monde. Il n’en relève que certains aspects pour constituer une abstraction du réel. Cette abstraction prend des formes bien déterminées, et la lecture de Bratton décrit la nécessité d’intervenir politiquement dans le champ de ces abstractions et modélisations computationelles. Tout en venant de décisions humaines (et non d’une IA magique), elles peuvent être inhumaines en tant que « décision sur les paramètres de la décision – une décision sur la décision » [21]. Grégoire Chamayou en donne des exemples explicites dans sa Théorie du drone : « traduire l’impératif de « ne cibler que des cibles légitimes » en lignes de code est une opération vide tant que l’on ne spécifie pas ce que recouvre la variable « Target ». De même, on peut toujours essayer de coder une expression formalisée du principe de proportionnalité (…) mais il faudra toujours spécifier au programme par une valeur, directe ou indirecte, ce qui constitue le seuil de proportion acceptable entre vies civiles tuées et avantages militaires attendus » [22]. Ce sont ces variables qui déterminent ce qui compte ou non pour les machines.


cf. https://strelkamag.com/en/article/another-kind-of-technocracy

L’une des tensions de l’histoire de la cybernétique est celle du dualisme entre le corps et l’esprit, entre l’information et son support. Cette tension s’incarne également dans la distinction entre la logique abstraite, le traitement symbolique de l’information et l’inscription corporelle du calcul, son effectuation pratique. Alan Turing en 1936 a formalisé (en plus du test mentionné) « sa machine universelle ». Sans entrer trop dans les détails, disons qu’il s’agit d’un petit robot imaginaire qui déplace une bande, divisée en petits carrés. Ce robot fictif y lit et écrit des symboles, selon des règles qui lui indiquent quoi écrire et où, chaque nouveau déplacement dépendant de ce qui est marquée sur la bande. La machine de Turing condense formellement l’essence de l’ordinateur. Turing a démontré que toute fonction qui peut être mise en algorithme peut être calculée par une Machine de Turing. Cette machine est toutefois abstraite, sa mise en œuvre pose d’autres enjeux. On dit souvent qu’un algorithme peut être défini comme une recette de cuisine, en ceci qu’il suffit de suivre des étapes données pour produire le résultat voulu. Cette définition est symbolique. Elle passe sous silence le fait que les algorithmes numériques sont confrontés à des contraintes d’implantations dans du matériel informatique et qu’ils effectuent leurs opérations de façons répétées sur des volumes de données gigantesques en quelques millièmes de secondes. Un aspect quantitatif et matériel, l’impératif d’efficacité des algorithmes, la programmation, a dû être associé à la machine de Turing pour initier l’informatique moderne. Toutes les perspectives d’immortalité s’engouffrent à l’inverse sur le plan des machines abstraites, parmi des corps qui ne comptent pas. Cette conception désincarnée de l’information se nourrit de l’analogie qui distingue en informatique le hardware du software, mais le cerveau n’est pas un logiciel.

Katherine N.Hayles dans son ouvrage How we became posthuman, virtual bodies in cybernetics, literature, and informatics [23] se confronte à cette dématérialisation de l’information. Elle critique le fait que l’information soit « conçue comme une sorte de fluide incorporel qui peut circuler entre différents substrats sans aucune perte de signification ou de forme ». Quand les imaginaires trans-humanistes promettent que l’on pourra cryogéniser son cerveau pour être réincarné dans des incarnations à venir, le corps est accessoire, seules comptent les données et les programmes que stockeraient notre cerveau. Katherine N. Hayles montre qu’en définissant ainsi le cerveau, simple outil de collecte et de traitement des informations, un tel projet continue l’humanisme libéral. Le post-humanisme prolonge en ceci une variante d’une part de la pensée moderne, continue les projets de mathématisation du monde. Le monde peut être transparent, entièrement connu et est en ceci programmable.

En vérité, cette conception désincarnée de l’information n’est qu’un seul aspect du calcul informatique. Comme le rappelle Mathieu Triclot [24] dans son ouvrage sur la cybernétique, la mise en parenthèse des considérations sur le transport des messages et les propriétés énergétiques du signal ne peut être que temporaire. Son universalisation se fait abstraitement dans le champ de la physique théorique mais s’opère concrètement dans le champ des télécommunications et de l’informatique. Le calcul n’existe qu’équipé matériellement. Saisir ce qu’est l’IA implique de constamment prêter attention à son incarnation concrète, au basculement entre le calcul abstrait dont elle relève et sa concrétisation dans des machines. Cette incarnation matérielle dépend d’une multiplicité de réseaux et bases de données. Un seul et unique ordinateur n’incarnera jamais la puissance menaçante convoquée par Elon Musk. L’argument n’est pas à entendre seulement comme un rappel de la matérialité des choses. Il s’agit de rendre indissociable l’informatique et sa matérialisation concrète. De fait, l’intelligence des machines repose avant tout sur des machines.


cf. https://strelkamag.com/en/article/eating-the-planet

L’intelligence alien de l’IA acquiert à ce stade un autre sens. D’une part, elle repose sur des processus d’abstractions déterminées qui chaque fois réduisent la réalité d’une certaine façon. Pour une mitrailleuse autonome, selon sa programmation, ce qu’est un humain, un enfant ou un verre d’eau est une distinction pertinente ou non, qui compte ou pas. D’autre part, l’intelligence se trouve redéfinie comme étant distribuée. L’intelligence des machines n’existe pas centralisée dans un seul et unique ordinateur. Elle dépend au contraire d’une multiplicité d’appareils, de bases de données et de réseaux techniques. Elon Musk peut affirmer craindre l’IA et en même temps multiplier les machines électroniques, la conception de robots ou de voitures autonomes. La sur-exposition d’une menace masque l’avancée des calculs. Il s’agit plutôt d’envisager, c’est là où les machines inquiètent, que l’histoire de l’esprit humain soit liée à celle des techniques. L’ethno-archéologie d’André Leroi-Gourhan fait de l’invention des outils un processus déterminant de l’hominisation. Dans cette perspective, la technique extériorise la mémoire et libère les organes. L’homme fabrique des prothèses artificielles, des artefacts techniques extérieurs à son corps et dont l’histoire construit une co-évolution des organismes vivants et des organismes techniques. L’activité technique est un comportement du vivant, avant d’être une opération intellectuelle. L’esprit est donc toujours technique. La technique fonctionne comme extériorisation du spirituel, en fournissant des moyens et des instruments par lesquels l’esprit peut revenir à lui-même. Elon Musk veut imposer une trajectoire bien déterminée au développement de ces artefacts.

Que l’on adopte ou non cette conception des techniques comme extériorisation, il faut bien admettre que les technologies numériques influent sur nos comportements et nos manières de penser. La question de l’IA s’incarne par la fonction recherche qui s’installe dans nos têtes à force d’utiliser google, par la redéfinition des relations avec l’extension des smartphones, par la conjonction qu’effectuent les réseaux sociaux avec nos liens réels, par l’indistinction entre le réel et le virtuel, entre nos processus de pensée et ceux qui dépendent en partie des machines qui nous entourent. Le calcul informatique s’est massivement dispersé et disséminé dans l’environnement. D’ailleurs, le terme d’IA fut, entre les années 1950 et 1980, peu à peu abandonné pour privilégier celui « d’apprentissage machine » (Machine Learning), moins effrayant à priori. Les visées de l’IA changent. Par l’apprentissage machine, chaque entité peut devenir intelligente dès qu’elle peut apprendre. Il ne s’agit pas de recréer une copie informatique du cerveau humain mais d’imiter le fonctionnement des neurones. Cet apprentissage, pour être possible, a dû se matérialiser dans une multiplicité de bases de données, de réseaux et d’infrastructures. L’emprise de l’IA telle qu’elle existe repose sur ces multiples couches informationnelles plutôt que sur une forme d’intelligence surpassant toutes les autres. C’est la multiplicité des calculs qui prennent sans cesse des décisions à notre place, et décident froidement, robotiquement, les distinctions à établir selon des modalités chaque fois spécifiques. Comme le souligne là encore Bratton : « Chacun d’entre nous sera confronté à diverses formes d’intelligence des machines, certaines sont contrôlées à distance ou programmées par des humains, d’autres sont très largement automatisées, et la plupart se composeront d’un mélange des deux, simultanément objet de formes de contrôles humains et de contrôles non-humains. Les vérifications de CAPTCHA, que les sites internets utilisent pour identifier les usagers humains, sont une sorte d’inversion du Test de Turing dans lequel l’usager passe ou échoue, oui ou non. Mais dans le champ des interactions quotidiennes entre humains et robots la question de localiser l’intelligence ne se réduira pas en une alternative binaire oui/non. Il faut cesser de poser ainsi le débat. » [25]

L’intelligence efficiente des machines

Cette dispersion massive du calcul peut prendre des formes centralisées. Grégoire Chamayou montre, avec le cas des drones, que la décision sur les critères de fonctionnement des machines de guerre concentre le commandement militaire « en fixant les paramètres de toutes les décisions automatiques à venir dans une séquence donnée » [26]. Cette centralisation est toutefois plus multiple que totale. Bratton propose, dans un autre ouvrage, la notion de Stack [27] -la pile, le tas -, pour désigner l’enchevêtrement constant des couches de souveraineté. Entre les infrastructures militaires, les réseaux souverains des États-Nations, les interfaces et les plateformes, le nomos du cloud est un agencement complexe. Par exemple, le grand nombre d’algorithmes fait aussi exister un milieu algorithmique au sein duquel les concepteurs de nouveaux algorithmes ne peuvent anticiper en amont la multiplicité des interactions, sur les réseaux sociaux, internet ou dans la finance. La centralisation y est très difficile, voire impossible. Redisons-le, la menace brandie par Elon Musk, ou d’autres, est une manière de chercher à se positionner en figure de maîtrise. Cette maîtrise est cependant toute relative, et traversée de rapports de forces entre les différents acteurs des technologies numériques, les puissances politiques et leurs infrastructures respectives. C’est dans un tel contexte, dans la distribution à la fois centralisée et contingente du calcul informatique que se décident nos relations aux machines et leurs formes d’intelligences. Le mythe de l’IA sur-puissante brandi par Elon Musk et d’autres est une manière de nous rendre partiellement moins perceptible ce fonctionnement ordinaire des technologies numériques et la façon dont l’intelligence des machines, telle que répandue aujourd’hui, construit déjà le cours des choses.

Tout un milieu technique et social donne forme aux agencements des humains et des machines. Et en même temps, chaque machine, une fois concrétisée, déborde toujours sa stricte fonction et ne s’y résume pas. Dans la philosophie de Gilbert Simondon, « L’inhumanité supposée des objets techniques tient d’abord, à leur apparence de matérialité insignifiante » [28]. Selon lui, l’enjeu est de ne pas placer les machines dans un rapport strictement utilitaire, dans une relation où elles ne sont que des outils. L’objet technique est d’abord technique avant d’être utile. Ces quelques intuitions font lire encore autrement la menace de l’IA et son intelligence alien. Elon Musk et consorts mettent en concurrence l’IA et l’humain. La question du grand remplacement pose d’abord un écart entre humains et machines pour ensuite interroger qui des deux va l’emporter. L’IA serait menaçante parce que potentiellement plus puissante que nous, plus puissante c’est-à-dire économiquement plus efficiente. Ce qui est mis en équivalence, ce ne sont que les capacités évaluées du point de vue économique. Les machines nous menacent parce qu’elles pourraient faire mieux que nous, et plus vite. Elon Musk nous propose d’ailleurs d’apprendre à courir plus vite. Les machines restent de simples instruments, qui peuvent être hors de notre contrôle ou qu’il faut savoir dépasser pour garder le contrôle et produire plus. En dépit des apparences, ce cadrage ne permet pas de penser les relations entre humains et machines, tout ce qui nous constitue déjà mutuellement. L’hypothèse de Donna Haraway dans son manifeste cyborg publié en 1984 était une manière de partir de ces relations existantes, pas de les affirmer ou les défendre, simplement de commencer par les reconnaître et de penser notre situation de ce point de vue et non à partir de l’humain humaniste, ce sujet qui semble si cher à ceux qui nous gouvernent. Les théorisations du post-humain, lancées entre autres par Rosi Braidotti, cherchent à continuer cette perspective, en choisissant stratégiquement de ne plus partir de la figure du sujet de l’humanisme, le plus souvent blanc, mâle, etc. On ne comprend qu’au regard de l’IA ces différentes hypothèses.

Un autre grand acteur de l’IA, Kai-Fu Lee (passé par Apple, Microsoft, président de Google-China, etc.) donne à lire un tour de passe-passe récurrent. Il dit à la fin de son livre L’IA la plus grande mutation de l’histoire :

{}« Nous sommes loin de comprendre le cœur humain, et à des années-lumières d’être à même de le reproduire. Tout ce que nous savons de l’amour, c’est qu’il donne sens à notre vie. C’est sur cette base, à mon avis, que nous devons construire notre avenir commun en tant qu’individus, pays et communauté mondiale : tenter d’associer la capacité de l’IA à penser et la capacité des humains à aimer. Si nous parvenons à créer cette synergie, nous serons en mesure de générer de la prospérité grâce au pouvoir de l’intelligence artificielle, tout en restant connectés à notre humanité profonde » [29] .

L’amour, « l’humanité profonde »,...l’humanisme bon teint revient ici comme une escroquerie. Face à la toute puissance de l’IA à laquelle œuvre Kai-Fu Lee, il faudrait compter sur la toute puissance de l’humain. La lecture de Bratton a le mérite de se décentrer de cette alternative infernale entre la menace des machines et la convocation abstraite d’une humanité générique. Elle permet d’apercevoir comment procède l’IA bien réelle d’aujourd’hui et la quête désenchantée de l’efficience qu’elle impose dès maintenant. Les objets techniques doivent être abordé comme des modes d’existences, situés dans des milieux digitaux qui constituent certains types de relations et des manières bien spécifiques de penser. La peur du grand remplacement ou d’une toute puissante IA à venir obscurcit nos relations aux machines et au milieu. Il faut toutefois souligner que Benjamin H. Bratton propose encore d’autres perspectives, proches en partie de l’accélérationisme, dont témoigne plus particulièrement son livre « Terraformation 2019 » [30] et dont il faudra reparler ici. Contre la crise de notre relation à la technique, Bratton défend une forme reprise en main des abstractions produites par les machines et systèmes techniques. En réponse aux limites du vernis humaniste, Bratton prend parti pour affirmer une autre modélisation de la computation planétaire. Il invite à se réapproprier tant la géo-ingénierie climatique que la terraformation et agir en designers de la planète.

Inutile de dire, comme le souligne d’ailleurs la préface de la traduction française d’Yves Citton et Grégory Chatonsky, que nous ne saurions suivre les provocations partiellement délirantes de Bratton. L’ampleur d’une telle provocation se prête presque plus à la dérision qu’à la critique. Cependant, sa provocation pointe vers le terrain stratégique des guerres en cours. Nous pouvons ainsi nous resituer dans ce que font réellement les machines et ce qu’elles promettent de faire. Il y aura de ce point de vue plus à dire sur la géo-ingénierie, les fantasmes d’une solution par le plan ou le design, et la computation à l’échelle planétaire. L’enjeu va au-delà du fait de savoir comment les machines fonctionnent précisément. Il s’agit d’étudier comment elles modélisent le monde, comment elles établissent telle représentation du monde et pas telle autre, sans écarter les contraintes matérielles de tels calculs. Autrement, la critique manque la computation telle qu’elle opère réellement. L’enjeu du rapport à l’IA n’est pas une question morale, sur les finalités ou les limites de l’intelligence des machines L’IA ne pose pas la question d’une intelligence suprême, mais celle du trouble ontologique constant qu’introduisent les calculs informatiques autour de nous. L’intelligence alien des machines est aujourd’hui difficilement séparable de la nôtre. Ce sont à partir de ces relations qu’on pourra trouver des prises pour s’en défaire. Aucune IA centrale ne nous fait face, ni maintenant ni par la suite.

apteq

[2Ibid.

[6Comme le montre Antonio Casili, En attendant les robots, Seuil

[7On lira sur cet aspect le livre d’Aaron Benanav, à paraître l’an prochain aux éditions divergences . Un compte-rendu est disponible sur le site de Mediapart par Romaric Godin : « Les robots menacent moins le travail que la crise du capitalisme » (nous ne donnons pas le lien car il créé un bug sur notre site).

[9Ou jeu de l’imitation, The imitation game, titre du biopic de Morten Tyldum consacré à Turing en 2014.

[10Bratton, idem.

[11Cf. par exemple : Parisi, L. The alien subject of AI. Subjectivity, 12, 27–48 (2019).

[12Cf. le texte de Bratton cité précédemment.

[13La vie secrète des arbres, Peter Wohlleben.

[14Bratton, idem.

[15Bratton, idem.

[16Bratton, idem.

[20Bratton, ibid.

[21Grégoire Chamayou, théorie du drone, la Fabrique, p.299.

[22Grégoire Chamayou, idem. p.299.

[23N. Katherine Hayles, how we became posthuman.

[24Mathieu Triclot, le moment cybernétique, champ vallon.

[25Bratton, ibid.

[26Chamayou, ibid.

[27Bratton, Benjamin H. Le Stack  : plateformes, logiciel et souveraineté. Traduit par Christophe Degoutin. UGA Éditions., 2020.

[28Gilbert Simondon, du mode d’existence des objets techniques, p.11.

[29Kai-Fu Lee, IA la plus grande mutation de l’histoire, p.297.

[30Benjamin H.Bratton, La Terraformation 2019, les presses du réel, 2021.

lundimatin c'est tous les lundi matin, et si vous le voulez,
Vous avez aimé? Ces articles pourraient vous plaire :