Le rugby quantifié
L’approche statistique est utilisée par ceux qui visent la performance, notamment dans les sports d’équipe, par exemple dans le rugby. Fabien Galtier, le coach de l’équipe de France, aime rappeler qu’il est parmi ceux qui utilisent le plus les data – et ce n’est pas pour perdre. Un staff qui n’utiliserait pas cet outil serait probablement désavantagé. À preuve : les équipes qui ont le meilleur profil statistique sont souvent victorieuses – la logique est respectée.
Cette rationalisation de la performance par la quantification permet de se représenter une performance individuelle ou collective (de son équipe, de l’adversaire), et plus globalement de savoir que dans le rugby contemporain, il y a augmentation du temps de jeu, du nombre de phases par possession, du taux de réussite des plaquages ; que l’on pratique une forme de rugby moins risquée (les passes sans contact ont diminué, les défenseurs prennent le dessus en utilisant une plus grande vitesse de ligne), et que la gestion du jeu aérien est cruciale.
L’approche statistique semble en outre légitime dans la mesure où, la pratique aboutissant à un score, il n’y a pas de dénaturation à chiffrer, en amont, les actions qui se sont déroulées jusqu’à ce score – à décomposer une partie, coder et quantifier les phases de jeu (attaque-défense, mêlée, touche, ruck, maul) et les actions (passes, plaquages, ballons grattés, défenseur battus, franchissements des lignes) pour en tirer un rapport chiffré (occurrences, pourcentage de réussite et d’échec, nombre de pénalités concédées, mètres parcourus ballon en main) [1].
Ainsi le coach averti adopte-t-il un autre point de vue sur la partie achevée. On dit parfois qu’une personne qui n’y aurait pas assisté s’en ferait une image, saurait en quelque façon ce qui s’est passé. On pense en tout cas que les statistiques permettent d’approfondir la vision, voire révèlent certaines choses : elles permettent de faire d’étonnants constats à partir des détails issus de la décomposition, et qui appellent une compréhension nouvelle. On repère par exemple le tournant d’une partie, quand un joueur est entré et a effectué de nombreuses passes réussies, on explique une domination stérile par le faible nombre de passes après contact.
A partir de cette vision appuyée sur les mathématiques, enrichies en outre par les données biologiques fournies par le GPS et le cardio-fréquence-mètre (lesquelles permettent de calculer la capacité maximale d’oxygénation (VO2max), la composition musculaire et la puissance déployée…), il est possible de piloter les entraînements (calibrer les exercices, prévenir les blessures), en contrôler les effets attendus et en évaluer les progrès. Et dans la mesure où l’on peut déterminer la combinaison la plus efficace contre tel adversaire ou le comportement d’une équipe dans telle ou telle condition (par exemple face au vent), comprendre les tactiques des adversaires (voire les « décisions » : pénaltouche ou tentative de but ?), on peut préparer les compétitions (formation du plan de jeu, appréhension des modes d’offensive adverse et adaptation de la défense en prévision, appui sur les probabilités pour décider (calcul des chances de gagner en allant vers telle ou telle forme de jeu), anticipation du coaching et des scénarios, estimation de leur normalité ou de leur pathologie…).
Ainsi se construit une perspective commune pour le coach et son staff, et qui peut être partagée avec les joueurs (à qui l’on montre des images et des chiffres, qui ont un intérêt pédagogique). Cette construction d’un point de vue commun via l’approche quantitative ne contrevient certes pas aux habitudes de ces derniers, qui cherchent eux aussi à réduire l’incertitude quand ils construisent leur technique, leur façon de jouer. Elle est d’autant plus utile qu’il y a quinze joueurs sur un terrain (plus sept sur le banc), avec des profils hétérogènes (les rapides et les forts, les réfléchis et les spontanés…).
Et il faut ajouter que le public n’est pas en reste : particulièrement friand de statistiques pour agrémenter son expérience sportive, il emprunte souvent la même perspective analytique. Il se nourrit même parfois de data et de calculs savants pour optimiser ses paris sportifs. Aussi certains supporters estiment-ils raisonnable de miser sur la victoire finale de l’équipe de France en fonction des données du passé, voire d’une évaluation plus théorique des probabilités [2].
L’hégémonie statistique
Evidemment, il y a des réticent.es : allergiques aux chiffres, amoureuses du « flair » et des relations de qualité. Mais à ceux qui disent que le recours aux statistiques appauvrit le jeu, et même le mécanise, Fabien Galtier répond que les données chiffrées sont un outil qu’il faut savoir utiliser « avec intelligence ». Les fournisseurs de data disent d’ailleurs eux-mêmes que l’analyse doit rester humaine : malgré les avancées technologiques, la capacité à ressentir et interpréter reste au cœur de toute décision (la statistique n’est en outre pas un outil fiable à 100 %, il y a toujours une marge d’erreur). Il ne faut donc pas opposer culture de jeu et esprit de groupe d’un côté, indicateurs et approche analytique de l’autre. En d’autres termes : il doit toujours rester du « jeu » (humain) dans la mécanique. D’ailleurs si les statisticiens ont établi des rapports de match, c’est pour qu’il soit possible de poser des questions aux données [3].
Le problème, pourtant, c’est qu’il est possible de faire un implacable constat : après que la France a perdu contre l’Afrique du Sud en quart de finale de la Coupe du monde en 2023, Fabien Galtier a su rappeler que si l’équipe a marqué 28 points (contre 29), « selon les data elle aurait dû marquer 37 points » (il parle des « expected points ») ; or « quand sur des données, vous êtes en capacité de marquer 37 points, c’est que tactiquement, vous ne vous êtes pas trompés ». L’énoncé n’est pas anodin, et fut réitéré, confirmé, défendu.
C’est étonnant. Car bien qu’il semble laisser entendre que tout n’est pas quantifiable, et qu’il y a des choses non quantifiées qui importent [4], le coach finit en l’occurrence par s’appuyer abusivement sur le quantifié pour donner sens à une défaite, formuler un argument qui la met en perspective pour éviter d’avoir à l’assumer trop crûment. Cela avait d’ailleurs conduit à une certaine désolidarisation d’avec le capitaine de l’équipe, Antoine Dupont, qui lui, avait plutôt tendance à pointer les erreurs d’appréciation de l’arbitre.
Cette étonnante phrase semble même dire que les statistiques finissent par prendre assez d’importance pour relativiser le score final – le résultat. Les chiffres du score sont débordés par les nombres évoqués en amont, par les nombres relatifs à la décomposition de la partie en phases de jeu, et au final par les « expected points ». Dit plus philosophiquement : sur le plan des nombres, le devoir être prime sur l’être, l’abstrait sur le concret.
Comment expliquer cet étonnant renversement ? Il est certes possible d’expliquer la phrase de Fabien Galtier en la rapportant à ses conditions d’expression : après avoir demandé au coach de conduire l’équipe vers la victoire, on lui demande de répondre de la défaite et, pour la justifier, il s’appuie sur des données objectives qui semblent pouvoir convaincre l’auditoire – être partagées par tous sans remettre en cause sa position d’expert. Il est même possible de rapporter cette phrase à un certain accord des inconscients : par intérêt, les acteurs du champ sportif (joueurs, coaches, dirigeants, journalistes, spectateurs) font confiance à des calculs qu’ils ne comprennent ni ne mesurent (par exemple la loi des grands nombres qui autorise le passage d’un constat sur un échantillon à un énoncé global), s’en remettent à une « boite noire » et feignent de ne pas voir en retour qu’il est délicat de formuler un énoncé statistique à l’échelle d’un individu ou d’une partie.
Soit. Mais en matière de renversement, il peut sembler plus pertinent encore de rappeler que l’acte de prédiction inhérent aux statistiques implique de calculer avant d’observer pour, justement, ne plus subir l’observé – ne plus être assigné à l’induction, qui n’a aucun pouvoir de prédiction. Idem concernant les modèles mathématiques importés puis affinés pour être appliqués au terrain de façon pertinente, ou pour la possibilité de décider d’un intervalle de confiance afin de ne plus subir la probabilité (traduite ensuite en « marge d’erreur »). Dans cette perspective, le théorique prime et préexiste sur l’empirique.
Il faut même dire que par-delà les simples pourcentages, les statistiques véritables consistent à établir une répartition aléatoire pertinente, puis à rapporter ce qui est ensuite observé à cette répartition théorique pour voir si ce qui est observé aurait pu arriver par hasard, c’est-à-dire n’être pas « significatif » [5]. En d’autres termes : en faisant primer un certain devoir être, les statistiques semblent finalement désigner ce qui est et ce qui importe. Aussi donne-t-on de l’importance à telle action ou tel événement parce qu’ils ont été révélés par les statistiques.
Plus précisément encore, il faut apercevoir que l’approfondissement de la perception d’une partie par l’analyse quantifiée tend à rendre tout élément « significatif », par conséquent à perdre en relief au niveau de l’espace et du temps, des actions et des événements – c’est-à-dire, finalement, à perdre en profondeur. Voilà qui prépare le terrain d’une valorisation par les données statistiques. Si cette remarque relative à l’aplatissement du réel est initialement inverse à la précédente, elle aboutit donc à la même conclusion : c’est le compté qui dit ce qui compte.
N’est-il pas alors possible de penser que la phrase de Fabien Galtier (qui met un score en rapport avec une prévision calculée, les « expected points », comme on dit parfois avec humour que la moyenne de quarante possessions par match devrait aboutir à marquer 280 points), est en réalité symptomatique de la méthode statistique, qui consiste à établir un renversement permettant de ne plus subir l’observé et être réduit à l’induction ? N’est-il pas possible de penser que ce n’est pas un hasard si les statistiques sont devenues prioritaires, voire hégémoniques, dans son approche, alors qu’il prétend manipuler un simple outil au service de la performance ? [6]
L’imperceptible inversion
Peut-être la précédente hypothèse a-t-elle le défaut de déposséder l’utilisateur de l’utilisation : elle laisse entendre que s’il ne comprend pas l’opération de renversement propre aux statistiques, s’il n’a pas accès à la « boite noire », dans la mesure où il ne s’intéresse qu’aux résultats fournis par cette approche, il peut malgré lui en épouser le mouvement. Mais pour prévenir l’abstraction et la violence de cette hypothèse tout en allant en un même sens, il est justement possible d’intégrer le point de vue de l’utilisateur. Voici en effet : si l’analyse consiste certes à décomposer, coder puis quantifier pour gagner en précision, et ainsi réduire l’incertitude, il faut remarquer que la décomposition en question est sans fin [7], et qu’elle n’aboutit jamais à la certitude censée permettre une décision sereine et rapide [8].
Or cette analyse infinie semble offrir la possibilité d’un progrès infini, et charrie par conséquent une confiance sans faille dans l’analyse. Cercle vicieux. A quoi il faut ajouter qu’en plus de faire écho aux valeurs de persévérance propres au sport, elle alimente une intolérance toujours plus grande à l’incertitude comprise dans la « marge d’erreur ». Plus rien ne semble dès lors pouvoir interrompre le processus d’analyse : quand la défaite pointe, on continue de croire au progrès ; quand quelque chose cloche, il semble opportun d’approfondir l’analyse statistique ; une incompréhension dans le rapport entre les data et le résultat ? on se propose de travailler avec l’arbitrage international, dixit Fabien Galtier (quel rapport entre l’incompréhensible et la règle ?). Autrement dit l’approche statistique fait système. Rien ne vient remettre en cause sa légitimité, dans le même temps où le jugement « humain » peut être sujet à caution. Le piège se referme sur une conscience qui se croit libre de penser autrement.
Et il faut ajouter que ce processus d’abstraction ne peut être aperçu par l’utilisateur, dans la mesure où le monde qu’il pense a été façonné par la perspective statistique qu’il emprunte : les entraînements sont conçus pour pouvoir être mesurés, le plan de jeu est progressivement construit en fonction des données qui collent de plus en plus à la singularité de l’équipe. Mieux : on décompose l’espace, le temps, les actions, les événements, puis on les recompose sur un plan abstrait. Voici en effet : on reterritorialise pour retrouver de la continuité terrestre ; on « réhumanise » arbitrairement le futur, par-delà la séquenciation chronologique, pour prétendre que les décisions éclairées peuvent être suivies d’effets ; on compare les actions des joueurs pour pallier l’absence de sommation en fibres ; on réconcilie les données physiques et les données physiologiques pour mimer la réincarnation ; on reconstruit le déroulement d’une partie en moments d’attaque et de défense pour pallier la désintrication événementielle.
Si le monde ainsi coordonné paraît concret, puisque tout y tient finalement ensemble, c’est donc en vertu d’une synthèse (monde que l’on se donne) plutôt que d’un il y a (monde préexistant). Et en plus de se retrouver dans un monde façonné selon ses calculs (abstraction opérante qui implique l’opération de renversement propre aux statistiques), l’utilisateur estime disposer d’une marge de décision, étant donné qu’il y reste de l’incertitude. Il ne décide certes pas vraiment, puisque la décision véritable implique d’assumer l’incertitude plutôt que de seulement la réduire, mais la correspondance entre la prétendue décision et le prétendu monde concret peut lui faire croire que c’est le cas.
Disons donc que l’accointance de la pensée et du monde ne pousse pas à réfléchir leur relation, à saisir l’abstraction de l’analyse, seulement à gagner en précision dans le chiffrement. En matière de réflexion, c’est alors évidemment le relativisme qui s’impose : le coach considère que la perspective statistique et « l’œil du maquignon », deux points de vue sur une même réalité, sont aussi légitimes l’un que l’autre, et que les deux sont a priori compatibles (certains coaches affirment d’ailleurs que les statistiques ne font que confirmer ce qu’ils pensent). Rien d’étonnant alors à ce qu’il ne reconnaisse pas l’hégémonie de la perspective statistique quand elle advient.
Rien d’étonnant non plus, puisque la perspective était partagée, à ce que les statistiques gouvernent tous les esprits. On sait que moins on organise, plus l’aléatoire augmente, donc on martèle que la décision individuelle doit se faire dans un cadre ; mais puisqu’il reste des aléas et des erreurs, on a tendance à les rapporter à l’échelle de l’individu – l’acteur. A partir de là, réciproquement, les joueurs finissent par se conformer à la perspective statistique : bien que potentiellement envahis par une surcharge d’informations, et pour ne pas l’être plus encore, ils se contentent de faire ce qu’on leur dit de faire, jouent au profit de leurs statistiques individuelles, se comparent les uns les autres, voire gèrent leur carrière. Ils rapportent la relation de pouvoir entre eux aussi, et ont tôt fait de prendre les adversaires pour des abrutis (les joueurs étant ceux qui prétendument ne savent pas, comparés aux statisticiens, ils imaginent aisément que les joueurs d’en face sont ignares).
Les effets numériques
Voici donc où nous en sommes : nous constatons une certaine hégémonie des statistiques, et pensons pouvoir la rapporter non seulement aux conditions sociales de leur exercice, mais encore à la méthode intrinsèque à ce type de mathématiques. Nous pensons même pouvoir comprendre, du point de vue du coach, pourquoi il dénie cette hégémonie : il ne réfléchit ni la méthode statistique, ni la façon dont elle est censée s’harmoniser avec l’œil du maquignon. Mais disons-le nettement ici : il est hors de question de laisser entendre que le coach ne parvient jamais à cette harmonie. Si Fabien Galtier fait manifestement l’erreur d’inverser être et devoir être, théorie et empirie, quand il déclare cette phrase étonnante sur les « expected points », il ne fait aucun doute que parfois, il réussit à compatibiliser les deux points de vue. La seule chose que nous puissions affirmer, c’est qu’il ne s’efforce jamais d’expliciter la façon dont cette harmonie s’opère (quand il est performant, il la montre seulement).
Charge à nous, par conséquent, de l’expliciter. Pourquoi ? Parce que l’autonomisation de la data nuit à la performance et à la participation du public, certes, mais surtout parce que le sport est un terrain privilégié pour le développement de l’abstraction statistique – au détriment du reste. A même un processus d’analyse qui encourage de plus en plus la précision, le recours à l’IA est en effet inéluctable pour suppléer les limites humaines de mémoire et de calcul. A preuve : l’encodage prenant du temps, les statisticiens du sport tendent à récupérer des parties qui ont déjà été encodées par l’IA (évidemment, croyant l’utiliser, ils l’ont éduquée au préalable). La prétention à automatiser certaines tâches pour libérer les acteurs, voués à faire des actions plus « significatives », est donc parfaitement illusoire : il est plutôt question d’accompagner le processus d’autonomisation de la data. D’ailleurs, quel intérêt, si tout le monde utilise les statistiques (sans compter que les modèles prédictifs sont prédicatifs, et pourtant inaptes à changer les choses) ? Évidemment, chacun croit tirer son avantage dans la course aux data, mais en réalité fait surtout fonctionner la machine à chiffres – concrétise le projet encore trop abstrait des fournisseurs. Ainsi les souscrit-on à la ruse de la Matrice.
A quoi il faut ajouter que par-delà la construction du jeu, les sportifs participent aveuglément à la construction d’une société 2.0 où les calculs sont légion [9], à la construction d’une société de marché où les joueurs deviennent des marchandises comme les autres [10]. C’est très concret : en plus de se faire support d’un profit (élément central de la dialectique argent-marchandise-argent), une équipe de rugby est l’agent d’une dialectique nouvelle, constructrice de monde. Ainsi l’espace devient-il quadrillage (pour servir la logistique) ; le temps devient flèche (pour permettre le progrès et le solutionnisme) ; les agents sont faits responsables d’un programme imposé (ayant cédé « librement » au projet – en les mettant dans la confusion, on les contraint à souscrire à la première solution claire qui se présente) ; les événements convergent vers l’alternative gagner/perdre, et sont enregistrés sous forme de chiffres, après qu’aient régné les probabilités cousines des 1 (événement effectif) et des 0 (impossibilité) chers à l’informatique et propices à la formation du système cybernétique.
Bref : la phrase de Fabien Galtier n’est vraiment pas anodine. C’est plutôt le symptôme avancé d’une société habitée par des calculateurs sur pattes, eux-mêmes gérés par des politiciens experts qui ne portent jamais la responsabilité de leurs décisions. Dès lors, si cela vient notamment de l’imperceptible renversement théorie/pratique inhérent à la statistique, et que celui-ci est assez opérant pour déborder le terrain de sport, il convient de l’expliciter. L’enjeu est clair, l’obstacle tout autant : il est question de sortir du cercle vicieux qui va d’une perspective statistique à la formation d’un monde puis à l’acte de reconnaissance d’une pensée qui s’y retrouve.
Comment faire ? Déclarer la fin de l’utilisation des statistiques serait illusoire. Par contre il est possible de penser que puisque c’est un mode de pensée qui enclenche le processus, du moins y participe grandement, puisque c’est la formatation d’un type de pensée qui pilote l’utilisation de l’outil [11], puisque c’est une méthode de calcul qui produit des effets, alors il faut infléchir ce mode de pensée et cette méthode. C’est-à-dire qu’il s’agit de faire en sorte que la perspective soit plus concrète en elle-même (plutôt que via l’application de l’abstrait au concret, la concrétisation extérieure), et qu’elle permette une décision véritable (plutôt qu’un calcul et une approximation progressive).
Il n’est évidemment pas question de prétendre faire fi de l’incertitude – ne plus en avoir peur, par conséquent se laisser aller aux paris aveugles. Ce serait en effet absurde et abstrait : personne n’agit ainsi [12]. Mais il est certes question d’aller vers une capacité de décider et d’agir à même et à partir de l’incertitude. C’est bien ce que fait Fabien Galtier quand il agit en phase avec la réalité sportive, plutôt que se laisser piloter « avec intelligence » par les statistiques (qui elles, cherchent à circonscrire l’incertitude et évaluer la possibilité d’être dans l’intervalle de certitude). Cherchons donc à expliciter cette perspective du sportif concret, lui qui ne se laisse pas aller à l’hégémonie de l’approche statistique pour réduire l’incertitude coûte que coûte.
Le sportif concret
Pour commencer, disons d’abord que l’incertitude en question vient de la rencontre des deux équipes – elle est partagée. Aussi semble-t-il opportun d’épouser un point de vue placé à la frontière des deux équipes pour l’appréhender, à cette frontière faite d’espace, de temps, d’actions, d’événements, d’enregistrement. C’est certes une perspective compatible avec l’approche statistique : les graphiques rendant compte du trajet du ballon (« scénario ») et les courbes du « rapport de force psychologique » en attestent.
Mais là où il y a rupture d’avec la statistique, c’est que le sportif concret ne cherche pas à connaître cette frontière sur le mode du constat (par exemple en disant qu’il y a eu 10 touches, 6 perdues, c’est là que s’est dessinée la défaite). Pourquoi ? Parce qu’il cherche la victoire de son point de vue, partial et non partagé, bien sûr, mais surtout parce qu’il cherche la victoire dans une perspective qui n’est pas du même ordre que celle qui explique les faits a posteriori. Alors que cette dernière est une perspective de défaite (on explique une défaite), il faut en effet apercevoir qu’il y a toujours plus dans la perspective de victoire : quelque chose dépasse la volonté de ceux qui la cherchent, c’est pourquoi on la dit souvent « incroyable » quand elle advient [13]. Il est dès lors possible d’ajouter qu’en amont, le sportif qui cherche la victoire se projette au-delà de son corps pour aller vers l’équipe, au-delà de la situation et de l’état présent du score pour aller vers la victoire : il y a pour lui une certaine abstraction, et qui ne relève pas de l’abstraction statistique.
Voici donc : il y a deux points de vue chez le sportif concret, et ils sont faits d’incertitude et d’abstraction sans être réductibles aux statistiques. Au lieu que s’ajoute un autre point de vue sur une réalité d’abord visée à l’œil nu, au lieu même d’un relativisme mou qui compatibilise à bon compte le point de vue statistique et l’œil du maquignon (voire l’expertise augmentée par les data, en surplomb de la situation sportive, et un point de vue incarné), il faut ainsi penser que le sportif adopte un point de vue double, qui comprend une frontière partagée et une partialité non partagée. Et il faut surtout voir qu’entre les deux, il n’y a pas de correspondance, donc de stabilité. Disons ainsi que du point de vue du sportif concret, les deux perspectives sont en alternance.
Evidemment, s’il alterne entre les deux perspectives quand il cherche la victoire, le sportif se demande chaque fois la même chose : où, quand, qui, comment se joue (noue) la partie en cours ? et à quoi donner de l’importance ? Voilà qui assurément unifie sa perspective double. Mais il n’accorde pas les importances en question en fonction de la répartition des « chances » propre aux statistiques (ni en allant contre, d’ailleurs). Il s’agit plutôt pour lui de déborder ce plan en allant vers la décision véritable et l’action.
Le sportif concret agit-il alors sans incertitude ? Non, loin s’en faut. Car il procède au contraire par hypothèses. Or en plus d’impliquer une certaine instabilité (elle n’est pas aussi assurée qu’une thèse), une hypothèse redouble l’incertitude : le sportif ne nie pas l’incertitude par le savoir statistique, il en rajoute au contraire. Et c’est certes pour faire l’incertitude, peut-être même pour se constituer en plan des incertitudes (l’incarner) et faire basculer la trame incertaine du match à son avantage. Autant dire qu’il fait une hypothèse en acte : si la rencontre semble converger vers telles actions, tels événements et scores qui le désavantagent, il tente de les infléchir – ne pas se laisser faire par une telle convergence.
Ainsi décide-t-il vraiment de son hypothèse. Il ne saurait certes dire la formule de son émergence (il sait en outre que décider n’est jamais pur), mais il vit pleinement son essai d’expression. Plutôt que prétendre faire en fonction de la loi des grands nombres, en fonction d’un savoir des mécanismes sous-jacents du hasard, plutôt que considérer une répartition aléatoire qui le désengage, il soutient son hypothèse pour qu’elle ne bascule ni dans le hasard, ni dans le savoir. Ainsi accepte-t-il une part d’ignorance (plutôt qu’une incertitude contrôlée, et qui suppose la continuité de l’Etre). Il accepte la trame d’incertitude jusqu’au bout de façon à y agir, il assume son hypothèse et s’engage en fonction d’elle. Il s’engage dans le jeu avec elle plutôt que de s’en remettre à une résolution symbolique et neutre (un coup de dés). Ne pouvant tout essayer, il s’engage en une voie pour faire des essais réels et les transformer [14].
Conclusion de cet effort d’explicitation de la perspective concrète du sportif : comme nous disions qu’il adopte un point de vue double, oscillant, nous pouvons dire qu’il adopte un point de vue opérant – il fait une hypothèse qui construit la réalité et s’assume comme telle. Voici donc venu un certain perspectivisme en lieu et place du relativisme, qui supposait a priori la compatibilité de deux points de vue (statistique et maquignon). C’est d’ailleurs bien parce qu’il construit son point de vue (constructeur de réalité) que le sportif peut tomber dans l’ornière de l’abstraction (l’hégémonie statistique).
Or ce qu’il nous faut remarquer une nouvelle fois, c’est que ce point de vue concret est partagé par les coaches, les joueurs et le public : chacun vit cette alternance entre frontière et partialité, et tente de pousser en un sens qui va faire basculer la rencontre vers la victoire. Le point de vue abstrait peut certes être partagé, lui aussi, mais cela pose effectivement problème, nous l’avons vu : les coaches s’entêtent à vouloir approfondir les calculs, les joueurs sont sommés d’y obéir, le public s’éloigne de l’action à mesure qu’il est enseigné par des pourcentages sommaires, la société 2.0 pousse alentour…
Le point de vue concret ne peut-il alors enseigner certaines choses au statisticien, à défaut d’être partagé par celui-ci ? Vu ce que notre réflexion a mis au jour, il s’agirait premièrement d’adopter un double point de vue, instable, plutôt que de s’en tenir à la stabilité du point de vue statistique ; et deuxièmement de penser une façon de passer de l’aléatoire à l’hypothétique. Est-ce envisageable, alors que la statistique vise à stabiliser un point de vue à même la considération de l’aléatoire ? Voyons voir…
Le statisticien concret
Pour commencer, il faut rappeler l’efficacité de l’approche statistique – éviter les erreurs habituelles. Les objections les plus communes et sommaires consistent en effet à signifier que les joueurs ne sont pas des individus-types, plutôt des sujets singuliers, et que la présupposition de la constance de l’expérience humaine est erronée, par conséquent que les modèles formés à partir des données du passé sont voués à l’échec. Or il faut justement confronter ces objections à la pertinence des modèles analytiques : bien qu’il y ait création perpétuelle, il est possible de montrer une certaine constance dans les interactions [15]. Rien ne sert donc de disqualifier les statistiques à bon compte, car en réalité les acteurs du champ sportif s’appuient sur cette pertinence pour décider et agir.
Par contre il est déjà possible d’indiquer un certain effet de seuil : à partir d’un certain degré d’utilisation, les statistiques nuisent à la prise de décision. A preuve : quand Fabien Galtier met en avant les « expected points » pour donner sens à la défaite de l’équipe de France face à l’Afrique du sud en 2023, il se rappelle aussi que sur les sept derniers matchs de la Coupe de monde, cinq fois le vainqueur avait moins d’« expected points », et avoue qu’il ne l’explique pas. Nous pouvons en déduire qu’il est dans l’incapacité de faire des hypothèses et de s’y engager, puisque la formulation (intuitive ou explicite) des hypothèses implique de donner sens à ce qui s’est passé.
Le problème, certes, c’est que Fabien Galtier évoque ensuite la nécessité de « réfléchir sur la règle » pour comprendre. C’est-à-dire qu’il commet à nouveau l’erreur de faire primer le devoir être, et semble vouloir faire correspondre l’être au devoir être. Il laisse surtout entendre qu’il pourrait être en mesure d’expliquer les choses (donc d’arbitrer en connaissance de cause). Or c’est une erreur bien plus profonde : alors que les modèles humains tentent de s’en tenir à quelques variables pour être utilisables, les modèles du big data capables de déterminer les « expected points » impliquent de multiplier les variables dans des proportions inatteignables à un esprit humain, et se constituent donc inévitablement en « boite noire ». Ainsi se creuse le fossé entre les calculs sur l’aléatoire et le passage à l’hypothèse : car pour faire une hypothèse et s’engager en fonction, voire la partager, il faut mettre du sens à cet endroit – Fabien Galtier n’en mettra jamais (il n’expliquera pas, par exemple, pourquoi les « expected points » étaient de 37,1 côté français, non pas de 37 comme il l’a dit).
Faut-il alors envisager, vu ces effets de seuil, de mettre une limite à l’utilisation des statistiques pour maintenir leur efficacité ? Imaginer tracer, en amont, une limite d’aval ? Le problème, c’est que Fabien Galtier le prétendait déjà quand il disait utiliser les statistiques « avec intelligence ». Et l’expérience nous montre justement que les limites ainsi tracées pour plus tard permettent de se délester du problème au présent, et sont souvent dépassées quand surgit le problème de la limite d’efficacité. Mieux vaut donc tenter d’imaginer la façon dont les statistiques pourraient s’empêcher, à même leur pratique, à même leur méthode, de produire les effets indésirables qui nous sont apparus (en premier lieu la pente hégémonique). Il s’agirait en l’occurrence d’empêcher que les statistiques semblent indiquer ce qui compte (ce qui est important) à partir de ce qui a été compté (alors même que les variables retenues dans les modèles sont repérées sur la base de calculs sophistiqués effectués à partir de données nettoyées et uniformisées [16]). Et il s’agirait de faire en sorte que la décision se fasse, certes sur la base d’une réduction de l’incertitude, mais de façon à permettre l’engagement dans l’action, c’est-à-dire en l’assumant.
Comment faire ? Une première piste, ce serait d’amender la présupposition de la constance de l’expérience inhérente aux statistiques (ce qui s’est passé ici et hier pourra se passer là et demain). Non pas pour la disqualifier a priori (l’objection est sommaire et contreproductive, on l’a vu), mais pour rapporter ce bémol à même l’utilisation des statistiques. Il s’agirait en effet de considérer que si ce qui va advenir peut être en rupture avec ce qui est advenu, alors cette rupture peut advenir à même une rencontre.
Ainsi l’espace et le temps, abondamment partitionnés et séquencés pour les besoins de l’analyse, pourraient-ils être conçus d’une autre manière – envisagés comme pouvant changer de façon imprévisible en fonction de choses irréductibles aux paramètres déjà sélectionnés, et réputés significatifs pour les data. Idem au niveau des agents : plutôt que d’entériner des plans de jeu, une organisation rationnelle où l’on parle des agents comme d’individus typiques (en plus d’être caractérisés par leur rôle) en laissant une place au joueur exceptionnel (nommé « facteur X »), il s’agirait d’accepter de mettre en rapport les singularités, voire de chercher les différences, plutôt que le commun, lorsqu’on construit un modèle.
Quant au plan des événements, il s’agirait de prendre en compte la nécessité pour l’équipe de créer de l’incertitude, plutôt que seulement la réduire (et faire le constat que les défenses prennent le pas sur les attaques). Enfin, rapport à l’enregistrement, il s’agirait de montrer que si l’on réussit à découvrir d’autres choses via une certaine ouverture aux chiffres (irréductible au choix de la méthode de traitement des données, une fois celles-ci uniformisées et nettoyées, et bien plus encore à une simple prise d’appui sur une base de données externes et des modèles préexistants), il convient de faire perdurer cette ouverture à même l’utilisation des résultats statistiques (passer sans certitude de la question « où s’est jouée la partie ? » à « où va-t-elle se jouer ? »).
Bref : tout ce que permet l’approche statistique en matière de réduction d’incertitude devrait être amendé par ce qui entrave cette approche. Autrement dit il pourrait être bon de réintégrer ce qui a été mis de côté pour permettre la simplification – la modélisation. Mieux : au lieu de parler d’irrationnel à la marge, il s’agirait de se rappeler que ce qui est mis de côté pour les besoins de la simplification fait aussi la texture du réel. Ainsi la statistique pourrait-elle accepter son geste d’abstraction tout en s’en méfiant, dans l’idée qu’il peut y en avoir des mauvaises abstractions. Ainsi pourrait-elle assumer le geste d’abstraction pour le mettre au service de la réalisation en corps (comme un joueur s’abstrait de son corps pour aller vers l’équipe, de la situation et de l’état présent du score pour aller vers la victoire – au contraire des statisticiens qui plaquent leur geste sur le « fait »).
Le mathématicien concret
Ce qui précède met en outre sur la voie d’un enseignement plus général – au niveau des mathématiques. Car s’il semble difficile, initialement, de demander au mathématicien d’utiliser un point de vue double, alternatif, dans la mesure où sa discipline consiste à construire des perspectives uniformément cohérentes à partir d’axiomes [17], notamment pour tester l’axiomatique en question, il est néanmoins possible de signaler que l’application des trouvailles mathématiques, établies à partir d’axiomes purs, est en conséquence tout à fait problématique.
C’est ce qu’a hurlé Grothendieck en son temps, par-delà la prétendue séparation entre mathématiques fondamentales et mathématiques appliquées – alors même qu’il était enclin à lier des univers différents, vu les ponts logiques qu’il a créés (entre la géométrie algébrique et la topologie par exemple). Exhortant ses collègues à se demander pourquoi, et pour quoi, ils étaient financés, et à considérer l’état du monde en conséquence, il fit dès lors face à un certain déni de leur part, et rapporta ce déni à une incompréhension fondamentale de ce que sont les mathématiques : une ouverture du sens strictement inapplicable.
A partir de là, puisqu’il semble impossible de demander une raison initiale, en amont, à la position d’un axiome [18], peut-être serait-il possible de questionner celle-ci en fonction de sa raison finale. C’est certes ce que font les mathématiciens quand ils reviennent sur une axiomatique pour la récuser, l’augmenter, la réduire, en cas d’incohérence surgissant dans les démonstrations en aval. Mais dans l’idée qu’il y a un risque à faire cohérer le monde en conséquence, il s’agirait ici de leur proposer d’aller jusqu’à accepter une part de contradiction – évidemment, il leur appartiendrait de dire quelle incohérence est légitime. Sans supposer qu’il soit possible aux mathématiciens de jouer avec leur rigueur propre pour compatibiliser à bon compte des approches différentes, il s’agirait de les inviter à accepter une part d’incohérence dans une axiomatique, histoire de prévenir les conséquences des prétentions à la cohérence parfaite – abstraite. En ce sens, la contradiction pourrait constituer un signal de la nécessité de changer de point de vue, dixit Nietzsche, plutôt qu’une injonction à ignorer le premier point de vue : une certaine alternance des points de vue viendrait en lieu et place de la compétition éliminatoire des algorithmes. A partir de là, les mathématiciens seraient évidemment plus enclins à conseiller aux statisticiens, voire aux utilisateurs de statistiques, d’être particulièrement attentifs aux autres points de vue, notamment à ceux qui interviennent quand vient le temps de l’application, plutôt que de se laisser aller au confort de l’hégémonie en vertu d’un relativisme aveugle.
A minima pourrions-nous inviter les mathématiciens à reconnaître une certaine a-cohérence dans leur pratique. C’est d’ailleurs ce à quoi les invitait Gödel, qui indiquait l’incomplétude des théories mathématiques : certes cohérentes, elles ne peuvent rendre compte elles-mêmes de leur cohérence (ni démontrer que celle-ci tiendra dans des développements futurs) [19]. Disons donc ici que si les mathématiques sont faites de position d’axiomes et de démonstrations éprouvant la cohérence de l’axiomatique, elles comportent une part d’a-cohérence qui ne se mesure pas en « marge d’erreur » – si l’on sait que ça marche, on ne sait seulement pas pourquoi ça marche. En conséquence de quoi les mathématiciens pourraient inviter les applicateurs à considérer que, rigoureusement, ils ne maîtrisent pas tout, qu’il ne peut être question de tout maitriser, et qu’il ne faut donc ni le prétendre, ni même le chercher.
Bref : plutôt que de partir du principe que pour dire, en mathématique, il faut soit postuler, soit démontrer – principe déresponsabilisant –, il s’agirait de prendre en charge le problème de l’application des mathématiques en le croisant avec le problème de l’émergence du sens proprement mathématique [20]. Ainsi serait-il possible de conjurer, dès l’amont méthodologique, l’hégémonie qui ne manquera pas de tenter les esprits avides de victoires, mais fatigués par l’incertitude inhérente à l’existence (et qui s’enorgueillissent trop durement de résider dans l’intervalle de confiance – le territoire du raisonnable). Ainsi le mathématicien pourrait-il intervenir en garde-fou pour conjurer la pente du tout statistique, et qui cache une volonté de contrôler le futur au nom du « hasard » ou des « chances ».
La recomposition des comptes
Alors : pouvons-nous compter sur le quinze du coq ? A l’évidence, oui. Car pour échapper aux défauts de la statistique, il est tout à fait utile d’approfondir la perspective de quantification de la performance. C’est ce qui nous a permis de voir que si les joueurs portent un boitier GPS et obéissent à un coach qui obéit parfois trop aux chiffres, ils incarnent l’inconfort d’un point de vue double, et même montrent la réalité de la contradiction. Ils font surtout la preuve que l’irrationnel fait partie du monde, et que le disqualifier parce qu’on l’a d’abord mis de côté pour les besoins de l’analyse est une erreur imbécile.
Ainsi enseignés par le sportif, ceux qui comptent sauront que c’est à eux de rappeler à tous que la mathématique, muse de la rationalité, ne saurait décemment muer en inquisitrice. Peut-être pourront-ils alors dénoncer le prétendu salut par les chiffres, et la menace de péché qui pèse sur les citoyens calculateurs (sommés aussi de faire un décompte calorique chaque fois qu’ils font du sport). Au moins sauront-ils prévenir ceux qui veulent plaquer les statistiques sur les pratiques de performance qu’il y a des effets de seuil, et que loin de constituer un amont innocent, elles sont un constructeur de monde – de la société 2.0.
Convaincus qu’il leur incombe de prendre en charge le problème de l’application, ils sauront rappeler qu’il faut éviter de penser que tout est compatible, voire que tout devrait être cohérent si le monde était bien fait, par conséquent apercevoir la pertinence d’un rapport dialectique entre les approches plutôt que se laisser aller au relativisme et, au final, à l’uniformisation. Autant dire qu’inspirés par la façon dont le sportif concret incarne l’incertitude pour la faire basculer à son profit, par la façon dont la pensée sportive s’affronte sans discontinuer au problème de l’émergence du sens et à la nécessité de s’engager pleinement et continuellement dans une hypothèse, ils sauront indiquer la charge ontologique immanente des mathématiques – assumer un certain perspectivisme.
Et pour aller contre l’autonomisation de la data, ils inviteront à vivre les maths comme les joueurs vivent les matchs – sans jamais faire de commentaires ni de pronostics, encore moins des paris [21]. Clairement conscients de leur tendance à déplier des idées d’abord posées sans raison pour en éprouver la cohérence (comme un sportif fait face à la contradiction après avoir déclaré, par sa simple présence, qu’il est là pour gagner), ils sauront rappeler le danger de s’en tenir à des constats positivistes, surtout quand ils sont des plus abstraits.
En tout cas, à ceux qui prétendent s’adosser à sa puissance de calcul pour légitimer leurs décisions (ils sont aujourd’hui nombreux et omniprésents), ils sauront dire qu’ils ne décident pas vraiment. Mieux encore : à ceux qui, en temps de Covid, ont trouvé bon de coupler les prédictions statistiques à l’exemplification sommaire et aux accusations préventives (si les prévisions s’avèrent fausses, c’est qu’il y aura eu des coupables), ils pourront rappeler que c’était verser dans un certain terrorisme épistémologique, et que rien de mathématique ne les autorisait à faire ainsi – pas plus qu’à oublier les vraies incertitudes de la vie une fois les pics épidémiques successifs repérés à l’aide des modèles de calcul les plus sophistiqués.
Fred Bozzi




