De la cybernétique à l’informatique ubiquitaire

Une nouvelle rubrique

paru dans lundimatin#305, le 20 septembre 2021

À partir de ce lundi, nous ouvrons une nouvelle rubrique consacrée à la technique et aux technologies sur lundimatin. Les contours sont encore flous mais nous voulons poursuivre par ce moyen des discussions et des recherches entamées ailleurs en ordre dispersé et qui gagneraient à être partagées davantage. Voici un premier article qui propose une généalogie de notre monde numérique, de la cybernétique (1948) à l’informatique ubiquitaire.

Nous cherchons des angles d’attaques pertinents pour analyser, utiliser ou aider à faire dérailler les dispositifs technologiques contemporains. Un premier écueil consisterait à chercher dans ces dispositifs des instruments d’émancipation. Cette tendance utopiste a pu exister vers la fin des années 90 et le début des années 2000 mais elle semble aujourd’hui compromise. L’utopie, comme l’écrit Félix Tréguer en visant l’internet, est déchue. Parce que le pouvoir politique a peu à peu repris la main sur le "cyberespace" - ça se déroule aux alentours du 11 septembre 2001 - et que le capitalisme a su faire jouer ces technologies pour son compte. Du reste, bien avant le passage du millénaire, les nouvelles technologies de l’information, comme toutes les autres, participaient déjà de la course en avant du capital pour se survivre à lui-même. Un deuxième écueil serait la position réactive inverse, qui rejette d’un bloc tout ce qui touche à la technologie, prônant alors une pureté morale souvent individuelle.
Pour éviter ces écueils, nous adopterons dans cette rubrique une position exploratoire. L’impasse politique et technologique dans laquelle nous nous trouvons - le passe sanitaire n’en est qu’un aspect, sans doute le plus criant - nous oblige à prendre les questions techniques de biais. En évitant une opposition frontale et des solutions faciles, nous essaieront de détecter la politique diffuse dans les codes de nos machines, l’éthique qui se déploie dans les technologies, les stratégies derrière les dispositifs, les failles derrière les discours publicitaires. Produire de nouvelles généalogies, revenir sur les impasses de certains discours pro ou anti-technologiques, comprendre en quoi la technique finit souvent par faire système et se confondre avec notre environnement. Nous souhaitons aussi décrire techniquement certains dispositifs afin de raffiner nos usages, éviter les pièges, étendre des pratiques pertinentes contre d’autres plus délétères, le tout en allant à la rencontre d’ingénieurs, plus ou moins déserteurs, pour grappiller les bonnes informations.
Pour le moment, le rythme de la rubrique est irrégulier. Si d’aventure certains lecteurs venaient à nous spontanément pour la faire vivre, nous aurions atteint un premier objectif.

Pour remonter le cours de l’histoire de l’informatisation et des nouvelles technologies, on revient en guise de préambule aux premières machines à calculer de Pascal et Leibniz pour ensuite faire un tour par Babbage et Lady Lovelace avant d’arriver à Türing et à la Seconde Guerre mondiale. C’est cette dernière qui est considérée comme le vrai décollage de l’automatisation du traitement de l’information (informatique) puisque c’est au travers de l’effort de guerre que sont développés à la fois les premiers ordinateurs selon les principes de J. Von Neumann (qui donne toujours son nom à l’architecture des machines que nous utilisons aujourd’hui) mais également les concepts d’information (notamment chez Shannon en 1948) et de cybernétique (chez Wiener également en 1948). Après ces débuts militaires, on nous explique en général en quoi le développement de l’informatique s’est émancipé en étant réapproprié par toutes sortes de bricoleurs, artistes, libertaires, ingénieurs, de Steward Brand à Steve Jobs, prenant du LSD et s’essayant aux communautés dans le sillage du mouvement hippie. L’ordinateur devient alors un outil d’émancipation personnel. Puis, c’est la mise en réseau de tous les réseaux d’ordinateurs, le partage de l’information à l’échelle planétaire, qui va porter des utopies de connexion, d’horizontalité et de démocratie souvent associées à l’internet. Sans oublier les profits qui vont avec. Ce discours et cette histoire ont été faits, refaits et on vit aujourd’hui l’époque dans laquelle l’utopie s’effondre sur elle-même. Les années 2010 marquent à cet égard un retournement, au moins du point de vue de l’opinion au sens large : Snowden en 2013, Cambridge Analytica en 2016, l’émergence des GAFAM comme sujet historique et économique diabolisé autant que sacralisé, sans parler des conséquences écologiques désastreuses du numérique, etc. Cette tendance récente a aussi été largement documentée.

Notre ambition ici n’est pas de s’appesantir sur le présent numérique, ni de refaire l’histoire des nouvelles technologies de l’information en insistant sur la manière dont l’information et l’internet auraient pu nous libérer si on avait suivi tel chemin plutôt que tel autre. Il s’agit plutôt de tracer une autre ébauche de généalogie du monde numérique, en se focalisant sur des évolutions conceptuelles et techniques éclairées d’une lumière différente. On prendra pour point de départ la cybernétique et on suivra son évolution dans le programme de l’intelligence artificielle. On s’arrêtera ensuite sur les critiques philosophiques adressées à l’intelligence artificielle par un certain Hubert Dreyfus lecteur de Heidegger puis surtout à la manière dont elles ont été intégrées dans le champ même de l’informatique, notamment par Terry Winograd et Fernando Flores. On s’intéressera alors aux conséquences pratiques de cette critique de la tradition rationaliste, dont on verra qu’elle est à l’origine de certaines branches du design, puis de l’informatique ubiquitaire chez Mark Weiser mais aussi, indirectement, de Google. Nous devons à Alexandre Monnin et Harry Halpin d’avoir mis en lumière cette généalogie originale d’une des tendances importantes en informatique dans un article de 2016 sur Carnap et Heidegger duquel nous tirons la plupart des références exposées ici [1]. L’article étant en anglais et destiné surtout à des spécialistes, il nous a semblé opportun de le reprendre (surtout la seconde partie) en insistant toutefois sur des points différents. L’idée principale qui guide cette généalogie est le passage d’une perspective centrée sur les machines (les ordinateurs) avec les fantasmes qui vont avec (notamment celui d’une intelligence artificielle) à la perspective de la relation entre humains et machines. Quoique plus éloignée des projecteurs médiatiques, les implications pratiques et politiques de cette perspective sont nombreuses et méritent d’être relevées.

L’un des intérêts de ce parcours est de couper l’herbe sous le pied à une critique trop simpliste du rationalisme occidental, qui dirait « Voyez ce monde de machines et d’ordinateurs, entièrement gouverné par la froide raison calculatrice où l’esprit se sépare du corps, revenons plutôt à notre sensibilité animale, relions-nous aux autres espèces et au monde qui nous constitue et nous trouverons alors les clés de l’émancipation ». Malgré la caricature, on ne doute pas que de nombreux lecteurs se reconnaissent de près ou de loin dans ces mots. Nous essayons ici de montrer qu’à partir des années 70, plusieurs informaticiens ont déjà intégré cette critique du rationalisme et œuvrent justement à réinventer le rôle des machines et leur lien avec les humains. Nous faisons ainsi le pari qu’en percevant plus subtilement ce qui se joue derrière le déploiement technologique contemporain, on évite de tomber dans les critiques déjà largement incorporées par les ingénieurs qui le mettent en œuvre. Espérons que cela nous aide ensuite à faire d’autres usages de la technique et, pourquoi pas, faire dérailler les machines.

I. Cybernétique et intelligence artificielle

1. Quelques mots sur la cybernétique

Le mot "cybernétique" en lui-même aurait été pour la première fois utilisé par Ampère en 1834 pour désigner « la science du gouvernement des hommes » mais il semblerait que personne n’ait reconduit après lui cet usage. Néanmoins, en la définissant ainsi, il colle à la racine grecque du mot, qui désigne tantôt le gouvernail d’un navire, tantôt le fait de le piloter, ou de le gouverner. Mais c’est en général en 1948 qu’on fait remonter le début de la cybernétique telle qu’on la connaît aujourd’hui, dans un livre de Norbert Wiener intitulé Cybernetics, or Control and Communication in the Animal and the Machine (traduit par La cybernétique, information et régulation dans le vivant et la machine). Wiener précise d’emblée la racine technique (gouvernail) et gouvernementale du mot cybernétique, sans toutefois se référer à Ampère, qu’il n’avait pas lu. Au moins trois grandes notions sont importantes ici : le contrôle (ou régulation, commande ou rétroaction, feedback) ; la communication (ou l’information) ; le fait de prendre ensemble l’animal et la machine.

Le contrôle d’abord. Il ne faut pas d’emblée y entendre le gouvernement des humains, mais plutôt le fait de pouvoir réguler, commander le fonctionnement d’une machine. L’idée fondatrice de Wiener et de ses collègues, c’est d’analyser le fonctionnement même du comportement (machinique, animal ou humain) en terme d’intention (ou de but) et de contrôle. Si l’on se demande par exemple comment une main se saisit d’un verre d’eau, il n’y a pas lieu selon lui de décortiquer l’ensemble des muscles et des mouvements mis en branle pour réussir l’opération : ce serait trop compliqué, voire impossible dans certains cas. Mieux vaut alors prendre en compte le but d’une part, ainsi qu’une mesure de la différence entre l’état présent et le but visé (la marge d’erreur en somme) d’autre part. C’est d’abord cela, le contrôle : la prise en compte et la minimisation de l’erreur en fonction d’un but. Tant que notre main n’a pas attrapé le verre d’eau, nous continuons notre mouvement. Ou, pour une machine, si elle ne va pas assez vite, des mécanismes sont censés l’accélérer, et inversement si elle va trop vite il faut trouver un moyen de la freiner [2]. La « découverte » de cette façon particulière de raisonner s’est faite chez Wiener travaillant sur les canons anti-aériens durant la seconde guerre mondiale : il s’agissait alors de minimiser l’écart entre la prédiction de la position de l’avion ennemi et sa position réelle, afin de pouvoir l’abattre lorsque cet écart était nul [3]. Cette approche peut sembler banale mais c’est de là que vient l’obsession de la cybernétique pour le feedback, autre nom du contrôle : a-t-on atteint les buts fixés ? Comment modifier notre action pour les atteindre ? Cette notion se répandra dans la suite du XXe siècle dans bien des domaines : économie, gestion, management, coaching personnel, ingénierie, publicité, réseaux de neurones, notation généralisée, etc. Évidemment, cela a lieu bien au-delà du domaine de la cybernétique : son rôle est d’avoir approché la rétroaction de manière technique et conceptuelle.

Vient ensuite l’information. La notion a de nombreuses racines [4], mais on peut se contenter de mentionner son émergence scientifique ou technique ainsi que son rapport avec le contrôle. L’article fondateur de la théorie de l’information, - ou plutôt, au départ, de la communication -, est celui de Claude Shannon en 1948 « Une théorie mathématique de la communication ». Sans rentrer dans les détails, la notion d’information, - en bonne partie issue des recherches en télécommunication et notamment en cryptographie lors de la Seconde Guerre mondiale -, désigne en gros la quantité d’ordre présent dans un message lorsqu’on connaît les propriétés de la source qui émet ce message. Ni sens ni matière ni énergie, l’information est une réalité originale, forgée théoriquement mais également au sein d’un univers technique. Une nouvelle unité est créée, le bit, pour binary digit, soit nombre binaire, pour pouvoir quantifier l’information (les fameux couples de 0 et de 1). L’enjeu pour la cybernétique, c’est que l’information et sa transmission sont justement les clés qui permettent de connaître l’état d’une situation, de le transmettre et ainsi d’activer ou non des mécanismes de contrôle, de feedback, dans un sens ou un autre, afin que tel système atteigne tel but. Pas de contrôle, donc, sans information.

Enfin, l’homogénéité entre l’animal et les machines. Toute la force de la cybernétique vient de là : des mécanismes qui traitent de l’information et minimisent les marges d’erreurs sont censés être présents partout dans la nature mais également dans les machines. L’important ici n’est pas tant que cela soit vrai ou non, mais le fait que l’on se mette à analyser de cette manière les comportements, aussi différents soient-ils. Peu de temps après les premiers succès de la cybernétique, la biologie moléculaire parlait de l’ADN comme d’un programme qui transmet des informations de génération en génération, informations qui déterminent une grande partie de notre constitution physique. Aujourd’hui, des outils informatiques permettent de reproduire des séquences génétiques pour ’coder’ telle protéine se trouvant sur tel virus afin de déclencher une réponse immunitaire en l’absence du virus en question.

Voici pour les choses les plus connues, jamais inutiles à rappeler. Reste que l’on s’intéresse souvent moins au fond métaphysique de l’affaire. Et ici, ce n’est pas chez Wiener, ni même chez Shannon, mais plutôt du côté de Warren McCulloch, un neurologue écrivant à la même époque qu’il faut aller chercher. Certains disent qu’il fut d’ailleurs l’éminence grise du mouvement cybernétique puisque c’est lui qui organise les conférences Macy (entre 42 et 53, elles regroupaient les principaux tenants de la cybernétique). Chez lui, il est très clair que cette dernière a une vocation philosophique : celle de mettre à jour les secrets de l’esprit humain, dont les religions et les philosophes n’ont jamais su dire quelque chose de solide jusqu’ici. Fini les arguties métaphysiques et les brouillards théologiques, la cybernétique est là pour indiquer que l’esprit se réduit au cerveau, que la pensée se réalise concrètement via des connexions entre neurones que l’on peut, moyennant quelques arrangements, reproduire à l’aide de circuits électriques. Il expliquait en 1961 : « La recherche du substrat physiologique de la connaissance se poursuivra tant qu’elle ne sera pas complètement achevée, tant, donc, que nous n’aurons pas obtenu de réponse satisfaisante dans le cadre de la physique, de la chimie, de l’anatomie et de la physiologie du système biologique à la question de savoir comment nous connaissons ce que nous connaissons. » [5]. Selon le crédit que l’on y porte, la portée de l’argument est immense : finit les vieilles distinctions corps-esprit, place à un matérialisme d’un genre nouveau où la pensée, l’esprit, peuvent être expliqués et surtout matérialisés dans des circuits (de neurones et, si possible, des circuits électriques). Sachant cela, il conviendrait d’être prudent lorsqu’on s’aventure trop rapidement du côté d’une critique du dualisme propre à l’Occident, de la domination de l’abstraction sur le concret, de la raison sur la sensibilité, etc. : on voit ici combien les cybernéticiens ont œuvré à dépasser l’opposition entre le corps et l’esprit, et ce plutôt dans le sens d’un réductionnisme matérialiste qui voulait anéantir les prétentions de l’esprit à être une substance plus ou moins indéfinissable, immatérielle, séparée, etc.

2. Cybernétique et intelligence artificielle

Cela dit, il y a des raisons au fait d’associer l’informatique en général à une forme d’abstraction et de rationalisme. Peut-être la cybernétique historique n’en est-elle pas responsable, elle qui prétendait justement matérialiser la pensée. Ce n’est pas le cas du courant de recherche qui se fera connaître à partir de 1956 sous le nom d’intelligence artificielle. Ici, il faut exagérer un peu les distinctions, afin de ne pas tout confondre : les fondateurs de l’intelligence artificielle se dressent en partie contre la cybernétique, même si certains d’entre eux, comme Claude Shannon, ont participé aux fameuses conférences Macy. Certains d’entre eux considéraient que la cybernétique n’était arrivée à rien avec son approche en terme de feedback, et qu’il fallait tourner la page [6]. La page de l’intelligence artificielle consiste à prendre l’ordinateur naissant comme le modèle de la pensée : penser, c’est traiter des informations, c’est calculer à partir de symboles. Surtout, on met alors en place une distinction très forte et désormais classique entre hardware (la partie matérielle, les circuits, les processeurs) et la partie software (le logiciel, la suite des instructions logiques, le programme). Et la spécificité de l’intelligence artificielle est de se concentrer sur la partie logicielle, en faisant l’hypothèse que la machine saura ensuite effectuer les instructions qu’on lui donne si différentes soient-elles. Autrement dit, tout l’effort à faire réside dans les montages logiques, les suites d’instructions et de programmes (le code) que l’on va construire par la force de l’esprit pour les faire réaliser ensuite par la machine. D’où une séparation très forte entre matière et pensée, puisqu’au fond la machine matérielle peut réaliser n’importe quelle instruction logique. Comme si le corps matériel se pliait à toutes les instructions issues du programme (et, de fait, on se mit à créer des programmes réalisant des opérations très différentes avec les mêmes machines). Comme l’écrit Jerry Fodor, «  de même qu’un calcul mathématique peut être effectué sur des supports très différents (boulier, machine mécanique ou électronique), on peut dissocier l ’analyse des opérations effectuées des supports matériels (cerveau ou machine) qui le permettent. »

Les premiers résultats de cette tendance sont par exemple le GPS pour General Problem Solver - rien que ça - de Simon et Newell (1957), qui ambitionne de résoudre tous les problèmes d’une certaine forme ou encore le langage LISP de McCarthy (1958) qui permet de manipuler des listes d’objets très différents, les premiers programmes pour jouer aux échecs et aux dames ou encore Dendral, un système expert capable de déterminer la formule chimique d’une molécule (Feigenbaum, 1965). La plupart du temps, ces applications transforment un état du monde en un symbole, une donnée, à laquelle il font ensuite subir divers opérations de calcul qui aboutissent à de nouvelles données utilisables en fin de parcours.

Plus largement, on entre avec les années 50 dans l’ère du cognitivisme, qui, en plus d’avoir trouvé en l’ordinateur le modèle de la pensée [7], étend son influence dans plusieurs domaines : l’informatique mais aussi les neurosciences, la linguistique, la psychologie, etc. Si ce courant a depuis été partiellement dépassé ou rattrapé par la vague du connexionnisme, cette approche ainsi que les sciences cognitives restent omniprésentes aujourd’hui, tant sur le plan de la recherche fondamentale que sur celui des applications pratiques et politiques.

Il faudrait revenir plus longuement sur l’intelligence artificielle, les fantasmes qu’elle a généré, parfois sciemment [8], mais l’objet de cette généalogie est de voir comment l’informatique a su rebondir à partir des critiques adressées à cette approche.

II. Les critiques de l’intelligence artificielle

1. De Martin Heidegger à Hubert Dreyfus

Venons-en maintenant à notre point important : dès le départ, plusieurs critiques de la cybernétique puis de l’intelligence artificielle émergent, même si elles sont minoritaires et que la recherche avance sans trop s’en soucier. L’une des plus fameuse n’est autre que celle de Martin Heidegger, le philosophe allemand qui n’a cessé, vers la fin de sa vie, d’épingler la cybernétique comme étant le dernier avatar de la métaphysique occidentale, qui aurait carrément remplacé la philosophie. En plaçant le contrôle et le gouvernement à même les choses, au sein des dispositifs techniques, tout se passe comme si la cybernétique incarnait enfin techniquement un projet de contrôle de la nature et des humains - on reconnaît bien le projet de l’Occident. Autrement dit le pouvoir, autrefois logé dans la religion ou la politique, s’incarne désormais dans les dispositifs techniques, dans la matérialité du monde. Plus généralement, Heidegger attaque aussi la technique et son usage moderne qui aurait trahi sa vocation première, celle de prolonger notre rapport au monde, pour aller au contraire vers un arraisonnement du monde, une manière d’user de la nature comme un stock dans lequel puiser jusqu’à l’épuisement. Mais c’est encore un autre aspect qui nous interpelle dans les charges de Heidegger contre le déploiement technologique de son temps : il déplore l’omniprésence d’une vision du savoir et de la pensée en terme de représentation, de logique et de faits. La modernité occidentale, et notamment la science et la philosophie analytique de son temps, pèchent ainsi par excès de ce qu’il appelle « l’attitude théorétique », qui désigne le fait de se rapporter au monde via des images censées représenter des collections de faits, puis de disséquer ces images, de les manipuler avec les outils de la logique et de revenir ensuite au monde, supposé tout à fait distinct de ces représentations, pour agir sur lui en agissant sur les faits en question. Tout cela est erroné selon Heidegger : nous sommes d’emblée des êtres-au-monde de telle manière qu’il est en fait impossible de nous en séparer et, pour comprendre quelque chose à nous-mêmes et à ce monde, il vaut mieux partir de notre activité, de l’engagement pratique de notre corps au quotidien, plutôt que de manipuler des catégories logiques.

Ce sont ces aspects, présents notamment dans Être et Temps et sa première section, que va reprendre un certain Hubert Dreyfus pour attaquer frontalement l’intelligence artificielle dans un livre qui a fait date, paru en 1972 : What computers can’t do (Ce que les ordinateurs ne peuvent pas faire). Avant ce livre désormais classique, le même Dreyfus avait rédigé en 1965 un rapport pour la RAND Corporation, une institution de Recherche et Développement alors au service de l’armée américaine. L’enjeu : plusieurs chercheurs devaient se prononcer pour savoir s’il fallait ou non continuer d’investir dans l’intelligence artificielle. Parmi les différents rapports, celui de Dreyfus marque les esprits d’abord par son titre « Alchimie et Intelligence artificielle », ensuite par son contenu, qui expose de manière critique les prétentions orgueilleuses de l’IA ainsi que ses limites indépassables [9]. On dit que durant ses années au MIT et suite à cet article, peu de gens oseront s’asseoir aux côtés de Dreyfus à la cantine [10]. Pourtant, aux côtés du « ALPAC report » de 1966 et du « Lighthill report » de 1973, les travaux de Dreyfus font partie des raisons qui déterminent ce qu’on appelle aujourd’hui « l’hiver de l’IA » à partir des années 70, soit la période où les financements s’effondrent et où l’on prend conscience que les premiers espoirs véhiculés par les ordinateurs ne seront pas réalisés aussi vite que prévu. L’approche de Dreyfus, qui comparait donc l’IA à l’alchimie et ses prétentions fantasques de changer le métal (l’ordinateur) en or (l’intelligence), est originale car, avec What computers can’t do, elle se joue avant tout sur un terrain philosophique. Ce qu’il reproche à l’IA des premières années et au cognitivisme en général, c’est de prétendre à l’intelligence tout en se passant des notions de corps et de monde. Et pas seulement de ces notions, mais aussi des réalités qui vont avec. À force de penser qu’un logiciel peut être intelligent, que la logique règle des problèmes, on finit par oublier que l’humain n’est intelligent que parce qu’il a un corps et un monde, ce que n’ont pas les ordinateurs. À partir d’une lecture de Heidegger et Merleau-Ponty, Dreyfus met en évidence l’enchevêtrement entre le sujet humain et son monde : en fait, les deux se constituent mutuellement. Mieux : cette constitution réciproque du corps et du monde n’est pas une opération logique ou théorique, elle est le fruit de nos pratiques quotidiennes, en deçà de toute représentation. Plus techniquement, Dreyfus affirme que le corps est indispensable à l’intelligence, ne serait-ce que parce que c’est grâce à lui que l’on perçoit le contexte de toute situation, de manière plus ou moins instinctive ou inconsciente. Or, il est justement très difficile, voire impossible pour une machine de prendre en compte les éléments de contexte tant ils sont nombreux. Encore plus difficile, sans doute, de parvenir à prendre en compte le contexte tout en lui donnant un statut semi-conscient selon les situations (parfois, notre corps ’sait’ quelque chose, comme par exemple la température de l’air, et adapte sa conduite en conséquence, sans que cela se transforme forcément en une information consciente). Toutes choses que le corps humain apprend à faire sans plan pré-établi, en vivant simplement dans un monde.

Ces critiques qui passent pour du bon sens furent d’abord l’objet de sévères attaques de la communauté de l’IA (voir ce que rétorque Seymour Papert, du MIT, à Licklider qui lui apportait son soutien : «  I protest vehemently against crediting Dreyfus with any good  » [11]). Mais quelques années années plus tard, elles trouvèrent un public et des chercheurs réceptifs au sein même du champ de l’informatique.

2. Terry Winograd et Fernando Flores

La reprise la plus connue des thèses de Dreyfus dans le champ de l’informatique est sans doute celle de Terry Winograd et Fernando Flores dans Understanding Computers and Cognition : A New Foundation For Design paru en 1987 (traduit en français par L’intelligence artificielle en question). Bien des choses sont intéressantes dans ce livre, à commencer par ses auteurs.

Fernando Flores, d’abord. Ancien ministre de l’Économie sous Salvador Allende au Chili, il a piloté le projet Cybersyn aux côtés de Stafford Beer : un vaste réseau d’ordinateurs censés harmoniser et piloter en temps réel l’économie et la politique chilienne [12]. Emprisonné en 73 après le coup d’État de Pinochet, il est libéré par Amnesty International en 76 et se réfugie aux États-Unis, où il lit Dreyfus, Merleau-Ponty, Heidegger, etc. Après une thèse sur la communication, il devient consultant dans les nouvelles technologies. Précisons également qu’en 2010, il est nommé par Sebastián Piñera, actuel président du Chili, à la tête du Conseil National de l’Innovation pour la Compétitivité. Drôle de retournement historique, si l’on sait que le frère de Piñera (Jose) est l’un des économistes libéraux, membre des Chicago Boys, qui a notamment mis en place la retraite par capitalisation au Chili sous Pinochet. Autant pour Fernando Flores, qui n’hésitait pas, à l’époque, à dédicacer son livre au peuple chilien «  pour avoir ouvert de nouvelles perspectives et pour son courage en ces temps difficiles. Il nous a beaucoup appris sur le langage et sur le sens de la vie ».

Terry Winograd, lui, est un chercheur américain de Stanford au parcours original. Très tôt surnommé le « Newton de l’informatique », il a participé avec enthousiasme à la première vague de l’IA en créant le langage SHRDLU qui permettait de « communiquer » avec un petit robot virtuel en langage naturel, par le clavier d’un ordinateur, pour lui faire réaliser un certain nombre d’instructions dans un « micro-monde » composé de formes géométriques de différentes couleurs. Pionnier de l’IA, il ne s’en est pas moins détourné grâce à la lecture de Dreyfus et la rencontre de Flores pour aller vers ce qu’il est convenu d’appeler aujourd’hui l’interaction humain-machine (Human Machine Interaction, HMI) : autrement dit, se concentrer sur les usages pertinents que l’on peut faire des technologies en les prenant dans leur relation avec les humains plutôt que sur la recherche d’une intelligence autonome. Toute sa vie, il a ensuite tenté de réfléchir à la manière dont la technologie peut venir en aide aux humains et nous reviendrons plus tard sur la suite de sa carrière [13].

Venons-en au cœur du livre. La première partie est une critique philosophique de ce que les auteurs appellent la « tradition rationaliste occidentale ». Cette critique se fonde sur trois sources majeures. Heidegger d’abord, dont nous avons déjà parlé et d’où ils tirent, à la suite de Dreyfus, l’idée que la cognition ou la pensée n’est pas d’abord une affaire de logique et d’abstraction mais au contraire d’être-au-monde, de rapport pratique au monde qui passe avant tout par un corps capable de percevoir un contexte et de faire émerger du sens par son engagement charnel. La seconde inspiration vient de la biologie singulière de Humberto Maturana et Francisco Varela, deux chiliens, proches de Flores, qui ont fait partie du courant de la seconde cybernétique, dont la particularité est d’avoir insisté sur les systèmes auto-régulateurs en biologie. Selon eux, la cognition n’est pas un phénomène proprement humain et encore moins un calcul d’informations mais plutôt le propre du vivant, qui consiste à produire le monde par le fait même de vivre, de déployer son être en agissant. Vivre, en soi, ne signifie rien d’autre qu’ouvrir un monde. Ils abandonnent complètement la perspective « représentationelle » qui est celle du cognitivisme classique : il n’y a pas de monde qui pré-existe à notre action, c’est elle qui déploie le monde. Surtout, par le biais de ce qu’ils appellent « l’auto-poïèse », ils tentent de penser l’émergence de règles, d’une vie pas complètement chaotique, sans présupposer le moindre « plan » au départ. Enfin, avec Austin et sa théorie des énoncés performatifs, Winograd et Flores mettent en avant une conception du langage qui ne soit pas pure communication mais acte de création. Non pas description d’un monde toujours à distance mais intervention et production de ce même monde (les exemples classiques d’énoncés performatifs sont ceux d’un juge qui profère sa sentence : « je vous condamne » ou encore la déclaration d’amour « je t’aime » qui ont des conséquences directes, qui produisent un état de fait différent après avoir été prononcés). Pour Winograd et Flores, il convient d’élargir cela au langage en général : chaque parole participe à l’élaboration toujours en cours du monde. Ce point est important puisque, par ailleurs, ils ont conscience que la programmation, en informatique, est l’invention et la manipulation de langages plus ou moins complexes : d’où l’idée que l’informatique est d’emblée la configuration d’un monde. « Les ordinateurs ont un impact particulièrement puissant, parce qu’ils sont des machines pour agir avec et dans le langage. En les utilisant nous nous engageons dans un discours dont les termes ont été définis par les programmeurs » [14].

Il faut reconnaître la subtilité de leur critique. Ils ne tombent à aucun moment dans un discours publicitaire sur les outils technologiques. Au contraire, ils s’en prennent même à l’usage à tout bout de champ du terme « intelligent » pour vendre de nouveaux produits aux propriétés très limitées. Ils attaquent fermement l’IA classique avec des arguments pertinents, mettent notamment en avant l’importance de l’invisible, c’est-à-dire du contexte, des intentions, des affects, qui permettent au langage de faire sens et de produire des opérations. Ils insistent aussi sur la dimension de ratage, de manque et de rupture qui permet de révéler notre rapport au monde : c’est quand un objet manque qu’il m’apparaît en tant qu’objet séparé ; c’est quand les choses ne marchent pas comme il faut qu’on doit les remettre en jeu – ici, en filigrane, se tisse une tendance qui a grandi aujourd’hui et qui fait de la crise un élément de progrès, via des concepts comme celui de résilience.

Après une critique assez large et plutôt subtile de la tradition rationaliste qui met en avant la raison et la représentation comme concepts phares pour intervenir sur le monde, les auteurs tentent de montrer quelques applications pratiques possibles de leur approche. Le lecteur touché par la dédicace liminaire au peuple chilien sera alors surpris de constater qu’ils s’adressent, en guise de peuple, aux managers. Puisque leur nouvelle approche, dans le fond, invite à réfléchir à l’action efficace plutôt qu’à la meilleure conception , il est logique pour eux de se tourner vers l’entreprise : « le problème n’est pas de choisir mais de produire » (p.227). Fidèles à une tradition libérale dans les études sur les institutions, ils définissent l’entreprise comme un « réseau de conversations » là où « les ordinateurs sont des outils pour diriger le réseau des conversations » (p.261). Pas d’illustration plus naïve et sincère de l’affirmation du CLODO (Comité pour la Liquidation ou le Détournement des Ordinateurs) selon laquelle « L’ordinateur est l’outil préféré des gouvernants » [15]. Les informaticiens munis d’une solide philosophie du langage ont donc tout leur mot à dire sur la manière de gérer une entreprise et même une grande responsabilité puisque, selon leur mots, c’est la manière de nommer un problème qui décide de celui-ci. Dans cette optique, ils exposent les traits principaux d’un programme : le Coordinateur, lancé par Fernando Flores via son entreprise, Action Technologies, et permettant de fluidifier la communication et les interactions en entreprise. Ce programme organise la vie de bureau. L’enjeu est de faire mieux apparaître le contexte invisible du langage. Les emails doivent être labellisés comme des requêtes ou des offres ; certaines réunions doivent être étiquetées comme des « conversations pour l’action » ou des « conversations pour les possibilités », etc. Un des enjeux était de faire voir tout ce qui normalement est invisible pour aider à la synchronisation des collaborateurs - on assiste en directe à la liquidation de l’analyse en terme de lutte de classe ou de rapports de forces, qui deviennent ici des ’malentendus’. Ce programme s’est vendu à des milliers d’exemplaires et a inspiré des générations de start-upers.

Avant d’en venir à d’autres applications pratiques de cette approche, retenons qu’elle se base sur une vision du langage comme élément central dans la production d’un monde et, plus concrètement, dans le fonctionnement de l’action efficace, en particulier dans l’entreprise. L’ordinateur est alors logiquement mis à contribution puisqu’il est d’abord un outil pour diriger les conversations. Mais c’est via une approche relationnelle qu’il prend toute sa place : non comme une machine qui fera tout pour nous (une intelligence artificielle dans le sens publicitaire des mots), mais comme une machine avec laquelle nous interagissons et qui permet de meilleures interactions entre humains. « Dans tous les cas la question que l’on doit poser n’est pas une question abstraite du type Quel est le système dont nous avons besoin ? mais très concrètement, comment les différents outils nous mènent à des nouvelles conversations ainsi qu’à de nouveaux modes de travail et d’être ? ». Trouver les nouveaux outils qui configurent le travail et l’être autrement, voilà ce que les auteurs entendent par le Design (traduit par ’conception’ dans la version française) et son usage ontologique (après eux, on parlera volontiers de design ontologique). Mais cette recherche de nouveaux outils ne doit pas être imposée brutalement, comme un plan qu’on appliquerait du haut : « Nous ne pouvons pas imposer directement une nouvelle structure à un individu, mais lorsque nous faisons des changements dans l’espace des interactions, nous déclenchons des changements dans l’horizon des préconditions de la compréhension » (p.270). C’est cet horizon des préconditions, invisible, contextuel, langagier, qui est leur cible, qu’il s’agit de toucher prudemment pour changer bientôt l’environnement des individus. Soit dit en passant, on reconnaît là une tendance à long terme de l’ère néo-libérale : éviter les plans préconçus que l’on applique d’un bloc à une situation et leur préférer des modifications de l’environnement, des conditions initiales, du contexte, afin que chacun évolue ensuite « naturellement » vers un nouvel état.

III. Google, Mark Weiser et l’informatique ubiquitaire

Le livre de Winograd et Flores a été classé parmi les vingt livres les plus influents dans le domaine des technologies de la communication par le magazine Byte. Leur approche n’est donc pas passée inaperçue, et elle a même fait des émules. La filiation la plus célèbre est peut-être celle qui relie Terry Winograd à Larry Page, le fondateur de Google. H. Halpin et A. Monnin vont jusqu’à écrire que « Winograd et Flores avaient jeté les bases métaphysiques de Google », qui consistent à se concentrer sur l’implication de l’utilisateur dans le monde (ce qu’il veut, ce qu’il cherche) plutôt que sur les classements logiques (par ordre alphabétique, par thème, etc) de l’information. C’est même l’expérience de cet utilisateur qui va permettre de rendre le moteur plus efficace, puisqu’on sait que sa pertinence vient en partie du fait qu’il nous redirige vers les pages les plus populaires d’abord, autrement dit celles que d’autres ont déjà visitées. Il se sert de l’expérience et des intentions plutôt que de la logique abstraite ; il repose sur une relation permanente avec l’utilisateur plutôt que sur une machine intelligente par elle-même. « Dans leur ré-interprétation radicale qui mélange ensemble Heidegger et la cybernétique, l’humain allait devenir une partie d’un système cognitif distribué d’un nouveau genre, qui apprend continuellement de ses erreurs. La technologie vise alors une intégration plus douce, voire invisible, avec l’humain. » (Halpin et Monnin, 2016).

Par ailleurs, Winograd a fait partie de l’équipe de Google à ses départs et c’est lui qui a conçu l’interface graphique de Caribou, l’ancien service de messagerie qui allait devenir Gmail, soit la messagerie la plus utilisée au monde. Au-delà de Google, il a influencé également Reid Hoffman, le fondateur de LinkedIn (2003). Ce dernier confie d’ailleurs l’importance de sa rencontre avec Winograd, qui l’a convaincu de l’importance d’étudier la philosophie. C’est notamment dans le champ de la communication et du travail qu’il a poursuivi les intuitions de Flores et Winograd : on comprend ici, avec LinkedIn, en quoi la technologie numérique accompagne les humains et transforme leur environnement, faisant au passage de chaque personne un entrepreneur connecté. Voila le sens de ’l’intégration douce’ des ’préconditions de la compréhension’ qui finissent par faire émerger ’de nouvelles manières d’être’.

Reprenant tous ces éléments de langage, une dernière filiation importante est celle qui relie Winograd et Flores à Mark Weiser et au Xerox Parc. Cette institution, aujourd’hui simplement dénommée le PARC pour Palo Alto Research Center, a été fondée en 1970 et se situe justement dans la droite lignée de la tendance qui a préféré se concentrer sur les relations humain-machine. On y retrouve par exemple Douglas Engelbart, inventeur de la souris ou encore Joseph Licklider, promoteur incessant de la « symbiose humain-machine ». C’est là-bas que sont développées parmi les premières interfaces graphiques afin de rendre l’usage de l’ordinateur plus commode pour un humain. Là-bas aussi que l’on conçoit les ordinateurs personnels et où Steve Jobs est venu faire un tour en 1979 avant de sortir le fameux Macintosh en 1984 [16]. Avec Mark Weiser, c’est l’étape d’après qu’il s’agit de penser.

Paru pour la première fois en 1988, l’article de Weiser intitulé « L’ordinateur pour le XXIe siècle » est fondateur de ce que l’on nomme parfois l’informatique ubiquitaire. Cette appellation a de quoi faire sursauter, et pour cause, elle désigne l’idée selon laquelle l’informatique doit investir l’ensemble des champs de la vie quotidienne sans que l’on se rende compte de son omniprésence. La première phrase de l’article visionnaire de Weiser est claire à ce sujet : « les technologies les plus abouties sont celles qui disparaissent. Elles se tissent dans la trame de notre quotidien jusqu’à s’y fondre complètement  ». On retrouve exactement l’ambition de Winograd et Flores, celle d’occuper ou de viser « l’horizon des préconditions de la compréhension  », le contexte, la strate invisible qui conditionne le visible. Tout l’enjeu de l’article de Weiser est de décrire la troisième génération d’ordinateurs. La première était celle des grosses machines à calculer, chères et accessibles seulement à des chercheurs spécialisés et à l’armée. La deuxième génération, née dans les années 80, est celle de l’ordinateur personnel, qui est un pas important du côté de l’approche en terme de relation humain-machine : non plus construire des machines monstrueuses qui deviendront plus intelligentes que nous mais construire des appareils manipulables, pratiques, utiles dans notre quotidien. Mais Weiser voit l’étape d’après car, selon lui, l’ordinateur personnel est déjà quasi has been tant il requiert de l’attention et une fermeture de l’utilisateur à ce qui se passe autour de lui. Le monde fluctuant et interactif qui s’ouvre demande que l’on ne concentre pas toute son attention vers un seul objet. Il propose alors une vision dans laquelle l’informatique et les écrans disparaissent mais en un sens particulier : en se multipliant. C’est parce qu’ils deviennent omniprésents, partie intégrante de notre environnement immédiat, que les écrans peuvent « disparaître » dans la trame de notre quotidien. On le crédite parfois d’être à l’origine de l’Internet des objets et, plus généralement, de tout ce qui contribue à répandre l’usage de l’information sous ses multiples formes. Il rappelle par exemple que : « des ordinateurs servent déjà à activer le monde dans des interrupteurs lumineux, des thermostats, des autoradios, des fours. Ces machines et d’autres seront interconnectés dans un réseau ubiquitaire ». Cela est encore plus vrai aujourd’hui, d’ailleurs la filière automobile en subit les conséquences depuis la pénurie de micropuces présentes par centaines dans chaque véhicule. Mais en plus de répandre l’usage de l’information à tous les objets, il convient, selon Weiser, de repenser l’usage et la forme des ordinateurs eux-mêmes. Il propose alors trois tailles d’écrans, pour trois usages différents. Le plus petit écran (tab) doit faire la taille d’un post-it et on doit pouvoir l’emporter partout et l’utiliser rapidement. Vient ensuite un écran de la taille d’une feuille A4 (pad), également transportable, plus léger qu’un ordinateur mais qui peut servir de relais à ce dernier en y transférant toutes les données nécessaires. Enfin, un écran de la taille d’un tableau de classe (board) doit permettre d’effectuer des travaux collectifs au sein des entreprises. Le but de la manœuvre est de parvenir à ce qu’il y ait « des centaines d’ordinateurs dans chaque pièce », avec le sens élargi qu’il a alors donné à la notion d’ordinateur. On laissera à chacun le loisir de constater à quel point ce Weiser avait, dès 1988, entrevu l’une des directions les plus importantes (et les plus lucratives) du développement technologique.

La lignée philosophique présentée plus haut est également visible chez Weiser, qui cite même Heidegger et le concept de « ready-to-hand » ou objet sous-la-main, c’est-à-dire la manière dont notre appréhension d’une situation fait instinctivement ressortir ce qui peut ou non nous servir. L’important, souligne Weiser, c’est le fait que l’on puisse faire usage d’un tel objet sous-la-main sans avoir à y penser particulièrement afin de pouvoir se projeter sur de nouveaux objectifs. Il s’agit bien d’atteindre les conditions de possibilité d’expériences futures. Ce qu’il se garde de dire, c’est en quoi cette nouvelle technologie une fois devenue « naturelle » ou « invisible » transforme notre expérience des choses, des autres et du monde. Il n’a pas l’air de s’en soucier outre mesure, si ce n’est qu’il faut que les écrans arrêtent de faire écran, de confisquer notre attention démesurément. D’ailleurs, il théorisera par la suite ce qu’il appelle la « Calm technology », soit la technologie douce, avec toujours la même idée : ne pas saturer l’attention des utilisateurs, offrir un environnement où les outils technologiques sont présents partout, en silence, jouant leur partition en attendant patiemment d’être sollicités.

À cet égard, on pourrait dire que l’imposition du pass sanitaire ne relève pas franchement de la technologie douce et invisible. Sauf que l’argument de Weiser, on l’a vu, est plus brutal tout en étant plus subtil : la technologie devient douce non pas en s’effaçant mais par multiplication des dispositifs informatiques, par hypertrophie d’écrans et de capteurs, au point qu’on les oublie, qu’on n’y prend plus garde ; bref, on s’y habitue. Car derrière l’omniprésence technologique du pass, il y a la facilité d’usage, le bip qui nous permet depuis longtemps d’entrer dans un bus (on se demande d’ailleurs toujours pourquoi) ou une bibliothèque, le badge et bien sur le QR-code et les informations qu’il contient. Tout est là, à portée de main, en train de se fondre dans le décor à une vitesse ahurissante. Plus que le contrôle total qui effraie parfois, c’est ici sur les transformations insidieuses des modes de vie que nous insistons : il est souvent indispensable d’avoir son téléphone sur soi, on confie lentement nos vies à des appareils auxquels on ne comprend à peu près rien, on dépend de ces machines qui deviennent littéralement des prothèses. Celles-ci nous donnent en même temps accès à de nouvelles ’manières d’êtres’ qui seront, en retour, analysées puis converties en publicités personnalisées qui à leur tour généreront des pratiques, des données, des publicités, etc., dans un cercle sans fin que le schéma initial de la rétroaction indiquait partiellement.

Cela dit, que la technique devienne peu à peu notre environnement et non pas un simple moyen pour arriver à des fins, Leroi-Gourhan et d’autres s’étaient déjà chargés de le montrer et voilà maintenant quelques milliers d’années que ça dure. Reste que, dorénavant, cet environnement est d’un coté entièrement designé et maîtrisé alors qu’il est surtout subi du côté des utilisateurs. Se tourner alors du côté de la réappropriation de ces outils et de leur maîtrise ’par le bas’ est encore insuffisant puisque l’on sait les conséquences écologiques désastreuses du secteur numérique, plus polluant que l’aviation. Demeure alors la possibilité de cibler des dispositifs précis tout en s’attaquant au système qui les produit : c’est sans doute là une des raisons du mouvement en cours contre le pass sanitaire.

[2On pense ici au célèbre régulateur à boule de la machine à vapeur, dès le XIXe siècle. C’est grâce à ce mécanisme que la machine à vapeur a pu être utilisée dans les usines textiles car il fallait qu’elle tourne à une vitesse constante, sans quoi elle pouvait casser l’ensemble des mécanismes de transmission du mouvement et de tissage. Pour plus de détails, voir la page wikipédia ou cette vidéo bien faite de Monsieur Bidouille

[3Wiener n’est en fait pas le seul à faire de la régulation un thème spécifique. Dès les années 30, un certain Hermann Schmitt, adhérent au NSDAP, plaide en faveur d’une science générale de la régulation afin de « Régler tout ce qui est réglable et rendre réglable ce qui ne l’est pas encore ». Pour plus de détails, voir Le Zéro et le Un de J.Segal, notamment les pages 250-253 où l’on découvre le lien serré entre le nazisme et cette science de la régulation.

[4Là encore, on se référera avec beaucoup d’intérêt au livre de J. Segal, Le Zéro et le Un, dont la première partie revient sur trois sources de la notion d’information en physique, en mathématiques (chez l’eugéniste Fischer) et dans les télécommunications (dans les laboratoires Bell).

[5Warren McCulloch : « What Is a Number, that a Man May Know It, and a Man, that He May Know a Number ? », in W. McCulloch, Embodiments of the Mind, 1961, p. 1-18, p. 1.

[6Ceci est très explicite chez Marvin Minsky, l’un des fondateurs de l’IA, notamment dans son introduction à Semantic Information Processing (1968), où il affirme que l’approche cybernétique n’a rien donné de bon. Voir notamment, sur ce point, un court article de M. Triclot.

[7Un des livres phare de cette tendance et qui assume pleinement le parallèle entre pensée et ordinateur est Le langage de la pensée de Jerry Fodor (1975).

[8Voir par exemple les prédictions de Herbert Simon en 1957 (sous 10 ans, une machine battra le champion du monde aux échecs, découvrira et prouvera des théorèmes mathématiques importants, composera de la bonne musique et que les principales théories en psychologie auront la forme de programmes d’ordinateurs) ou encore la déclaration de Minsky en 1970 : « Dans trois à huit ans nous aurons une machine avec l’intelligence générale d’un être humain ordinaire ».

[9On peut retrouver ce rapport décapant et amusant en pdf dans sa version originale par ici.

[10Pour un petit aperçu du parcours de Dreyfus et sa mise à l’écart au MIT, on peut jeter un œil à ce court article

[11Ces paroles sont rapportées par Dreyfus lui-même dans What computers still can’t do, p.87

[12Pour plus de détails, voir par exemple Le Projet Cybersyn. La cybernétique socialiste dans le Chili de Salvador Allende de Eden Medina ou, pour aller encore plus vite, cette vidéo.

[14Terry Winograd and Fernando Flores, Understanding Computers and Cognition : A New Foundation for Design, Language and Being (Norwood, N.J : Ablex Pub. Corp, 1986), p.270.

[15Le CLODO désigne le Comité pour la Liquidation ou le Détournement des Ordinateurs. Il a sévi dans les années 80 dans la région toulousaine en faisant plusieurs attentats pour détruire du matériel informatique. Pour plus de détails, voir par exemple ce court article ou encore le numéro de la revue Z consacré à Toulouse.

lundimatin c'est tous les lundi matin, et si vous le voulez,
Vous avez aimé? Ces articles pourraient vous plaire :