Les intelligences artificielles et l’objectivation de l’intervention psycho-sociale : à la trappe

Il n’est pas rare aujourd’hui qu’un travailleur psycho-social, devant la complexité et la taille des dispositifs d’assistance, ne perde le sens de son intervention souvent réduite à une série d’actes techniques définis et circonscrits dans un ailleurs dont il ignore tout. Le développement de la numérisation, des procédures automatiques et l’introduction d’algorithmes accélèrent cet effet de distanciation et de perte et font obstacle à la perception de la finalité des pratiques. Devenir exécutant, ne plus pouvoir se représenter ou percevoir ce à quoi on participe, empêche d’y réfléchir et a fortiori de l’interroger.

L’installation progressive des Intelligences artificielles (I.A.) dans le champ du travail psycho-médico-social, vient peut-être clore sans l’avoir résolue cette tension que nous voulions féconde entre l’exactitude et la conformité à la réalité de l’objectivité et le propre du sujet humain qui, dans son rapport au monde, « l’affective » et est toujours déjà affecté par lui.

L’objectivité dans les sciences humaines, la recherche de jugements que la subjectivité des intervenants n’altère pas, est une aspiration et une question éthique pour les intervenants de terrain, les chercheurs et les politiques. De débats en controverse, la tension entre objectivité et subjectivité reste irréductible. Au nom de l’incertitude qu’elle amène dans le traitement des affaires humaines on s’en est jusqu’ici réjoui.  Mais pour combien de temps encore?

Simplifier l’insaisissable

Pour alimenter une I.A., il faut modéliser la pratique, c’est-à-dire la simplifier alors que le monde réel est d’une complexité qui le rend insaisissable. Si une I.A. s’emploie à rendre compte des comportements humains, elle ne pourra le faire que partiellement et les taches aveugles qui l’émailleront seront le reflet des représentations, du jugement ou des choix de ses concepteurs. Dans le champ de nos pratiques, toute la dimension des savoirs que les travailleurs construisent dans la rencontre, par l’expérimentation et la réflexion, sera vraisemblablement abandonnée, car intraduisible dans les termes de l’encodage.

Dans le champ de la santé mentale, un développement des algorithmes inquiète plus particulièrement, celui des programmes prédictifs. L’action des I.A. se résume ici à un mécanisme de projection de nos choix, actions et comportements du passé sur l’avenir. Or, le propre d’une prédiction, c’est qu’elle est susceptible de ne pas se réaliser. À titre d’exemple, l’apparition de symptômes de décompensation corrélés à une période de l’année, une fois repérée, doit-elle inciter le soignant à augmenter la médication d’un patient ou doit-elle lui préférer une augmentation de la fréquence des contacts ? Doit-on viser l’efficacité, auquel cas l’augmentation de la médication semble souhaitable, ou l’équité, qui tend à garantir au patient qu’il puisse décider et expérimenter des modes de gestion de ces moments difficiles ? Les algorithmes favorisent l’efficacité, car ils s’appuient sur des données mesurables et quantifiables et surtout parce que l’équité est un concept difficile à « mathématiser » et donc peu ou pas appréhendable par une machine aussi « intelligente » soit-elle.

Pour pallier la simplification, les I.A. ont accès à des sommes de données faramineuses. Pourtant, ce ne sont pas uniquement des informations relatives au comportement traité que l’on y trouve, mais aussi des données de rechange ou supplétives. Des proxy-data composés d’éléments disparates comme « les corrélations statistiques entre le code postal ou les caractéristiques linguistiques d’un individu, et la probabilité qu’il rembourse un emprunt ou fasse correctement son travail. » (O’Neil, 2018 :34-35) Autre écueil, les I.A. figent dans un moment donné l’état d’une question sans entretenir les allers-retours permanents avec la réalité qu’ils prévoient de comprendre ou prédire. Les conditions « extérieures » peuvent changer, le modèle reste immuable1. Or même le meilleur des modèles mathématiques, s’il n’est pas actualisé, « finira par se périmer » (O’Neil, 2018 :41).

Un réel exsangue

Cette externalisation de la pratique doit nous interpeller sur la simplification attendue de tout ce qui « fait » une pratique et qui déborde toujours les procédures et les prescrits du métier. Comment transmettre à une machine ces moments où l’intuition qui guide nos actes est toujours un peu ailleurs que dans la synthèse descriptive d’une catégorie ou dans le respect inconditionnel de la procédure ? Comment lui expliquer que ce n’est que dans ce « en dépit » du travail prescrit qu’advient le travail réel ?

Le recours massif à une langue technique, largement numérique, diminue d’autant « la dimension fabulatrice » de la langue usuelle. Objectiver le langage « constitue un déni de sa valeur anthropologique » (Gori, 2011 :24) et repose sur la croyance que l’on peut rendre compte directement du réel en convertissant les observations de terrain en valeurs et signaux numériques directement introduits dans un système parfaitement borné. Au final, c’est un réel exsangue qui sera traité par l’I.A., vide de la dimension d’écoute, de rencontre, d’interprétation, de création par la parole. Quelle place dans ce réel pour l’interrogation d’un patient sur le sens de nos rencontres ? Que restera-t-il de cet effort conjoint qui s’essaie à rendre compte du sens et de la portée du lien ?

Si par malheur l’appréciation que nous posons n’est pas soluble dans les cases, les tableaux et les items prévus, elle est aussitôt pointée comme erronée, incorrecte, dysfonctionnelle et donc non prise en compte. En réduisant le langage à des cases à cocher ou à pondérer, c’est une transformation complète de nos savoirs d’intervenants qui s’opère. Par l’appauvrissement du langage qui devient utilitariste et par la disparition de nos observations, rencontres, rêveries et doutes qui récoltés et transmis au public sous forme de pourcentage et de récurrences de comportements ne sont plus que des itérations vides.

Restera-t-il une place pour l’argumentation, la réfutation et la pensée critique ? C’est davantage que notre capacité de jugement qui est atteinte quand notre action n’est plus mesurée qu’au travers des conditions d’accessibilité, de conformité et de surveillance des pratiques. Derrière la codification et le traitement par les I.A., il y a un refus. Celui de l’erreur, de la diversité, de la variété. Il y a aussi le rêve d’un calcul qui pourvoira à tout et nous économisera de devoir s’en remettre à la prudence, la sagesse pratique ou l’esprit de finesse. À terme, l’extraction des données devrait même permettre de se passer des opérateurs d’entrées et de sorties et surtout rendrait la délibération inutile ou exceptionnelle.

Si les exceptions et les singularités des difficultés humaines que vivent les hommes et des femmes et dont seuls peuvent rendre compte une rencontre, une relation et un dialogue entre humains ne sont plus prises en compte, ce sont les germes du changement et les possibilités d’évolution d’un individu qui sont entravés.

Disparition de l’acteur subjectif

À la subjectivité que nous réclamons comme partie centrale et irréductible des métiers de l’aide et de soin, on objecte le rendement des procédures, l’immédiateté des actions et l’universalisme des comportements et des pratiques. Curieusement absente dans cette énumération, la responsabilité dont toute pratique a à rendre compte.

Le mouvement d’opposition de nombreux travailleurs aux logiques algorithmiques passe par l’expérimentation d’une impuissance. Aujourd’hui, les travailleurs psycho-médico-sociaux sont des acteurs subalternes dont on n’attend pas qu’ils s’intéressent au résultat de leur travail et certainement pas à sa finalité. Si aujourd’hui le recueil des données est encore le fruit d’opérateurs humains, on peut imaginer sans difficulté se passer d’eux et laisser le patient (pardon, l’utilisateur) gérer seul l’encodage de ses propres données. C’est ainsi que s’accélère l’abstraction des tous ceux à qui nous prêtons d’ordinaire attention.

Cette abstraction s’accommode sans difficulté des incohérences qui ne manquent pas de se produire et réduit à presque rien la relation d’assistance et l’engagement de l’un et l’autre, de l’un vers l’autre dans la recherche d’un soin ou d’un prendre soin partagé. Bien loin des soubassements psychologiques des sujets et du contexte social, l’abstraction les transforme en coordonnées statistiques dont on peut suivre le déplacement. Cette classification mathématique gomme aussi les dimensions constitutives d’une identité et ne retient que le trouble visé et divisé en parties symptomatiques dont on mesure la fréquence.

Les I.A. sont aussi un outil politique et économique. Elles offrent aux gouvernements à peu de frais des éléments présentés comme capables de résoudre des problèmes. Elles sont source d’enrichissement pour les acteurs économiques privés et de contrôle des dépenses pour les acteurs publics. À terme – et on l’observe déjà dans le travail social – les populations précaires seront de plus en plus prises en charge par des machines, tandis que les privilégiés le seront encore par des êtres humains.

La programmation des I.A. qui traiteront les données que nous aurons fournies est un élément central qui doit guider nos interrogations. Dans « l’aide au cheminement »2 qui est proposé, voire imposé, c’est bel et bien la disparition de l’acteur subjectif et à terme, de la subjectivation dans nos champs qui se dessine. On avancera que l’objectivation des pratiques à travers une lecture uniforme offrira un traitement identique pour tous, en confondant au passage égalité et équité et en dévalorisant un peu plus l’appréciation par un humain de la situation d’un autre humain.

Par l’apport de la technique, le monde pour chacun de nous est devenu une immensité qui ne permet plus de s’en faire une image. Alors que notre capacité de représentation est circonscrite dans les limites de notre nature humaine, le développement des compétences techniques est sans limites. « Entre notre capacité de fabrication et notre capacité de représentation, un fossé s’est ouvert » (Anders, DATE :52). Nous ne perdons pas le monde. Incapable de nous le représenter, nous ne savons pas que nous l’avons perdu. Dans les métiers de l’aide et du soin, tout ceci peut sembler fort éloigné de ce qui fait le quotidien. Sauf à compléter le défaut de représentation par le défaut de perception qui l’accompagne. Les logiques d’intégration et de spécialisation empêchent progressivement de percevoir le tout dans lequel elles s’inscrivent.

Une « vérité » sans comptes à rendre

Le recours aux I.A. nous ramène aussi à cette question à laquelle il faut prêter attention tout au long de sa vie professionnelle : Qu’est-ce qu’être sujet sous des normes ? Les algorithmes participent au renforcement d’une normativité qui définira pour tout un chacun le normal, le déviant, le pathologique sur des bases, comme le dit Cathy O’Neil, opaques, à une échelle jusqu’ici inconnue et potentiellement nocive.

Comme le montre Cathy O’Neil (2018), « l’intelligence artificielle dans sa mise en œuvre, reflète nos valeurs, notre société, notre âme parfois » et « nombre des modèles utilisés encodent justement les préjugés, les malentendus et les partis-pris humains au cœur du système informatique qui régissent de plus en plus nos vies ». La fausse neutralité des I.A. n’est pas le seul élément qui inquiète. Forts d’une légitimité dans le grand public, leur validité est rarement remise en question. Une I.A. n’a pas à rendre de comptes. Contrairement aux individus qu’elle catégorise et assigne. Si ceux-ci, sommés d’agir d’une certaine manière ou qui se voient notifier un refus, un déclassement, contestent cette décision, c’est à eux de fournir les preuves, non pas de la réalité de leur situation, mais du dysfonctionnement d’une I.A. dont ils ignorent toute la mécanique.

Pour O’Neil, trois éléments sont à prendre en compte pour comprendre les algorithmes qu’elle qualifie d’«armes de destruction mathématique».

L’opacité. Celle de l’élaboration des algorithmes eux-mêmes. Ne pas savoir assurerait des résultats qui sinon pourraient être faussés en fournissant des réponses réfléchies. L’opacité se loge aussi dans la présence quotidienne et oubliée des algorithmes dans nos vies et est exigée au motif de la propriété intellectuelle des concepteurs et sans qu’on ne s’interroge sur la transparence exigée de ceux qui nourrissent le système.

L’effet d’échelle, qui établit des normes généralisées « qui exercent progressivement une autorité proche de celle de la loi » (O’Neil, 2018 :52). Des normes qui s’internationalisent et fabriquent des réponses standardisées aux comportements humains en dehors de toute dimension sociale, historique et culturelle. Les effets d’échelle affectent l’ensemble d’une vie. Une donnée recueillie et traitée lors d’un épisode de maladie mentale poursuivra un individu quand il s’agira d’accéder à une université ou à un emploi.

La nocivité, qui n’est pas le fait de toutes les I.A. Certaines améliorent même nos vies. Mais leur application dans les champs de la justice, de l’enseignement, de la santé n’est pas anodine. En cause, la généralisation des modèles et leur application à l’identique. Des modèles qui ne s’encombrent pas des particularités d’un domaine donné et qui partagent tous les mêmes objectifs d’efficience, quel que soit le contexte. L’étendue des données disponibles devrait garantir l’efficacité d’un modèle. Plus sûrement elle ne participera « qu’à multiplier les inepties, mais pas à les déchiffrer. Cette tâche revenant aux hommes » (O’Neil, 2018 :73). De plus, le recueil de toutes ces données peut déboucher sur une surveillance de masse, et dans la masse sur le ciblage de certains individus sur la base de leur comportement, lieux de vie, origine ethnique, etc… Sans limites prévues à notre connaissance au recueil ou à l’utilisation de certaines données pour des raisons d’équité.

On perd aussi dans cette généralisation la pluralité des analyses qui viennent d’une conception différente de ce que sont des éléments probants, utiles et démontrables pour dire la « vérité » d’un champ particulier. Transformer nos comportements en flux de données, les mettre en œuvre dans des modèles inévitablement réducteurs n’offre qu’un faux sentiment de sécurité et plus grave, risque de n’être qu’un jugement que l’on porte sur un individu, une action ou une situation donnée.

Externalisation des savoir-faire

D’aucuns prédisent que l’amélioration des I.A. corrigera ces défauts de jeunesse. Après tout, nous avons déjà externalisé une part de notre mémoire et de notre savoir à travers les supports que sont les livres, l’écriture et aujourd’hui les ordinateurs, et globalement cela nous a bien servi. En sera-t-il de même avec l’externalisation de nos savoir-faire en situation qui sont l’essence de nos pratiques3?

Les processus d’extériorisation, s’ils donnent lieu à une réintériorisation sous forme d’un savoir nouveau ou enrichi, permettent de penser par soi-même. On pourrait s’aventurer jusqu’à dire que le savoir n’existe que parce qu’il est extériorisé, échangeable, partagé et discuté, c’est-à-dire subjectivé dans et par l’échange avant que d’être repris en soi. Il faut ici distinguer le savoir, de la possession d’informations qui ne fait que renforcer les automatismes sans pouvoir les dépasser. « La capacité à acquérir un savoir véritable suppose d’intérioriser les étapes successives de l’histoire mnémotechnique de ce savoir » (Stiegler, Béjà et Padis, 2017 :70). Il nous faut comprendre de quoi les I.A. sont faites. Car de cette connaissance dépend notre capacité de penser l’utilisation de ces nouveaux outils et de s’en servir autrement que sous forme d’un agir stérile parce que non délibéré par les praticiens. L’ignorer c’est prendre le risque que la définition de l’attention dans nos sociétés soit soustraite à notre contrôle et qu’elle ne téléguide les relations sociales.

Pourtant les développements de l’informatique et des performances de calcul, couplé aux gigantesques bases de données fait miroiter à certains la possible numérisation de tous les domaines d’activités humains. Et l’idée progresse d’une matrice universelle qui permettrait le (dé)chiffrage de tous les comportements humains qui auraient bien entendu la même valeur partout dans le monde et auquel on apporterait les mêmes réponses. Objet de toutes les attentions, le comportement individuel rend caduque les aspects sociaux, historiques, politiques et psychologiques constitutifs d’un agir humain. À la trappe les savoirs des sciences humaines, les méthodes qui en découlent et leur histoire sociale et épistémique. Encodés dans les algorithmes leur validité n’est plus interrogée.

Le monde machine

Les I.A. sont une étape de plus dans l’autonomisation de la technique telle que l’analyse Gunther Anders. Il nous faut donc comprendre la place et les rapports que nous entretenons avec ce monde de la technique, soit « le caractère machinique (ou encore d’appareil) de notre monde actuel » (Anders, 1999 : 89). Partant de l’hypothèse de son autonomisation, Anders postule que c’est l’ensemble du monde qui se transforme en un monde machine qui repose sur trois principes. Celui de la performance maximale, qui le pousse à étendre son emprise sur son environnement comme source de production des éléments nécessaires à sa réalisation. Celui de l’expansionnisme, sous la forme d’une création sans fin d’un « empire colonial de services » (Anders, 1999) dans lequel le monde extérieur n’a pour seul rôle que de participer à son expansion. Celui enfin d’une absence de conscience des machines, qui est devenu au fil du temps pour nous une banalité que nous acceptons sans contestation. C’est ainsi que « nous sommes devenus, quel que soit le pays industriel dans lequel nous vivons et son étiquette politique, les créatures d’un monde technique » (Anders, 1999 :51). Nous sommes passés d’un monde dans lequel il y a des machines à un monde dans les machines ou un monde comme machine.

Penser l’articulation des objets techniques avec la cohérence de nos systèmes d’aide ou de soin, c’est être attentif à l’abstraction des individus qui est en fait une duplication4 par leur double numérique qui « les rend ainsi calculables, solubles, dans les comportements moyens » (Riquier, DATE :121). C’est prendre conscience de la vitesse des systèmes numériques qui « casse toute forme d’intermédiation, de régulation et de délibération en court-circuitant aussi bien les individus que les systèmes sociaux et les puissances publiques » (Riquier, DATE :122). Nous sommes déjà dépassés par ces outils techniques, nous serons toujours en retard sur les performances de calcul des I.A. Demain, sans intervention de notre part, ce sera pire. Nous devons nous saisir de ces outils pour réintroduire un temps qui permet d’en saisir la complexité. Penser les I.A, c’est réintroduire des intersections et la possibilité d’une alternative.

Créer un « dehors »

L’enjeu aujourd’hui n’est pas de bannir les algorithmes, mais de réintroduire de la délibération dans leurs usages, sinon ils fragiliseront plus encore l’attention dont doit faire preuve chaque société à l’égard de ses membres. « L’attention comprise comme capacité psychique de concentration au service des apprentissages » et « d’autre part et solidairement la faculté sociale de prendre soin, la civilité » (Stiegler, Béjà et Padis, 2017 :74).

Nietzsche rappelle que toute réflexion humaine porte en elle une puissance libératrice inséparable de son envers opprimant : « Cela fait une différence que soit Homère ou la Bible

ou la science qui tyrannise les hommes.» L’adhésion à une manière de concevoir le monde influence notre devenir humain et entre humains. Au cœur de la prétendue neutralité des I.A, c’est une vision du monde au détriment d’autres et au potentiel de tyrannie réel et bien éloignée d’une objectivité source de performance et d’égalité, voire de justice, qui se profile.

Pourtant, les sociétés sont le théâtre de luttes entre des logiques de domination, symboliques, culturelles et sociales. C’est dans ces luttes que s’enracinent nos subjectivités. Comment l’expliquent fort bien les travailleurs utilisateurs de l’O.C.C.I. ou du S.S.P., ce qui est perdu dans les questionnaires à choix multiples, c’est la capacité de penser, c’est-à-dire de dépasser les limites de l’évidence technique et numérique. L’obligation de choisir un item dans une liste prédéfinie plutôt que de rédiger une réponse qui s’appuie sur les liens que « la parole tisse entre des sujets et à l’intérieur de chacun d’eux » (Gori, 2011 :16) restreint la force d’une parole engageante et engagée et colonise le savoir des intervenants de terrain par celui des machines. Quelle place restera-t-il pour les savoirs intermédiaires où se conjuguent savoirs pratiques, théoriques et académiques dans une réflexivité agissante ? Où existeront les traces du travail de perception et de représentation de ce qui se joue pour toutes les parties ?

Pour exister dans ce nouveau pouvoir statistique qui est en passe de transformer les rationalités et les modes de gouvernement des questions sociales, il faudra s’appuyer sur la coopération et comprendre les objets que l’on manipule. Sur les traces de Diderot et d’Alembert, il faudra reprendre possession des savoirs et des pratiques toujours possiblement captés par les pouvoirs économique ou politique. Cette réappropriation sera multidisciplinaire. Technique, on l’a déjà dit, mais aussi juridique, philosophique, économique et politique. Il s’agit aux côtés des savoirs utiles, de refaire droit aux savoirs subtils, selon la belle formule de Pascal Chabot. Des pistes sont d’ores et déjà ouvertes. Certains réfléchissent ainsi à la mise en place de méta droits : droit à l’oubli, à la désobéissance, de se rendre compte et d’ainsi permettre « d’organiser la possibilité, pour les sujets, de créer un « dehors », un espace non identique au « réel » statistiquement enregistré, d’où éprouver et interrompre l’autoréférentialité de ce « réel »5.

Pour se libérer de la croyance de plus en plus prégnante en l’expertise par le chiffre, en l’importance de la traçabilité, en la prédiction par des augures virtuels et aux formes normalisées et standardisées seules à même de traiter tous les désordres qui font le tragique et la richesse d’une existence. Pour se rappeler au milieu de ce grand bazar du recueil de données que, comme le disait Jean Piaget, « L’intelligence, ça n’est pas ce qu’on sait, mais ce qu’on fait quand on ne sait pas. »

Notes

  1. Une réponse à cette critique réside dans le « machine learning» qui reste moins efficace que le raisonnement humain, mais qui a à disposition des milliards de données distinctes et des ordinateurs puissants pour les traiter.
  2. L’exemple de l’Outil de cheminement clinique informatisé (OCCI) est exemplatif des questions qu’il aurait fallu se poser avant son implémentation. (https://ici.radio-canada.ca/nouvelle/1134036/soins-domicile-algorithmes-questionnaire-malaises-services-sociaux)
  3. Une récente affaire le questionne dramatiquement. https://ici.radio-canada.ca/nouvelle/1386746/logiciel-ssp-dpj-defaillances-mort-thomas-audet
  4. Un algorithme est une façon de décrire dans ses moindres détails comment procéder pour réaliser quelque chose.La plupart des actions mécaniques se prêtent bien à une telle décortication. Aujourd’hui qu’on a dépassé la limitation aux seules actions mécaniques. Pour Gérard Berry chercheur en sciences informatiques « le but est d’évacuer la pensée du calcul, afin de la rendre exécutable par une machine numérique ». On ne « retravaillera donc plus qu’avec un reflet numérique du système réel avec lequel un algorithme interagit ».
  5. Le nouveau pouvoir statistique ou quand le contrôle s’exerce sur un réel normé, docile et sans événement, car constitué de corps numériques. (Rouvroy et Berns, 2010)

 

Références

Anders, Günther (2003[1999]), Nous, fils d’Eichmann : lettre ouverte à Klaus Eichmann, Paris : Rivages Poche.

O’Neil, Cathy (2018), Algorithmes : la bombe à retardement, Paris : Les Arènes.

Gori, Roland (2011), La dignité de penser, Arles : Babel.

Stiegler, Bernard et Camille Riquier (2017), « Critique de la raison impure. Entretien avec Bernard Stiegler », Esprit, vol. mars-avril, no. 3.

Siegler, Bernard, Alice Béjà et Marc-Olivier Padis (2014), « Le numérique empêche-t-il de penser? », Esprit 401, p. 66-78.

Rouvroy, Antoinette et Thomas Berns (2010), « Le nouveau pouvoir statistique », Multitudes 40.