Ce qui manque cruellement aux IA génératives : fierté, convictions, sens des responsabilités et le « moi »
Introduction
Dans mon bureau nocturne (ancien dressing), j’ai passé des heures à dialoguer sans fin avec une IA générative. C’était censé être la période de congés de l’Obon, et pourtant je me retrouvais à court de sommeil, à bombarder ChatGPT de questions et à m’emballer ou m’agacer selon ses réponses. Parfois je me surprenais à murmurer « Incroyable !! », parfois je fulminais devant une réponse totalement à côté de la plaque.
Note pour les lectrices et lecteurs qui ne connaissent pas l’Obon japonais : il s’agit d’une fête bouddhiste célébrée mi-août pour honorer les ancêtres ; les entreprises ferment souvent quelques jours afin que les familles rentrent au pays natal pour les cérémonies commémoratives.
À force de répéter ces échanges, une évidence s’est imposée.
— Il manque quelque chose de fatal aux IA génératives.
Ce quelque chose, c’est la fierté, les convictions et le sens des responsabilités. Moi qui n’aime ni le discours de la combativité ni celui de la motivation, je n’avais pas envie d’utiliser ces mots. Mais je n’ai pas trouvé mieux. Peu importe combien de fois je reformulais, j’en revenais toujours là. Et je me suis surpris à penser que je touchais peut-être le cœur de ce qui empêche l’IA générative de remplacer l’humain.
Ce que l’on attend des professionnels
On n’attend pas seulement des professionnels qu’ils possèdent savoirs et compétences ; on attend aussi une attitude éthique. Prenons un installateur de climatiseur chargé de percer un mur à l’emplacement demandé par le client. Que se passe-t-il si une poutre passe derrière ? « Le client me l’a dit, donc je ne suis pas responsable » n’est pas une excuse. Même si les torts juridiques se discutent, la responsabilité éthique serait incontestable. Le client n’attend pas qu’on exécute aveuglément sa demande, mais qu’on l’informe des risques et qu’on propose une meilleure solution. C’est précisément ce genre de fierté, de convictions et de sens des responsabilités que l’on exige des professionnels.
Situation actuelle et limites des IA génératives
L’IA générative imite habilement les connaissances et les tournures de langage. Mais elle n’adopte pas d’attitude du type « je refuse parce que cela heurterait mes principes » ou « je prends la responsabilité de préserver la sécurité de mon interlocuteur ». Aujourd’hui, ce vide est comblé par les paramètres de politique imposés par les fournisseurs de services. On peut tracer des lignes nettes en interdisant les usages illégaux ou pour adultes. Mais décider, par exemple, s’il faut proposer une solution meilleure en tant qu’expert reste une zone grise. Avec des indications précises dans le prompt, on peut atténuer un peu le problème, mais cela revient davantage à un cuisinier qui suit la recette à la lettre sans goûter qu’à un professionnel responsable. Résultat : si des conditions non écrites ou des perturbations surviennent, le plat obtenu peut être épouvantable, et l’IA vous le sert sans sourciller. Elle ne refait pas la recette en urgence, elle n’a pas honte.
L’humain reste indispensable (pour l’instant)
Pour l’instant, nous avons donc besoin d’un humain en tant qu’intégrateur responsable pour encadrer l’IA. Les aspects éthiques, les cadres juridiques, les lignes directrices de développement et même la formation des utilisateurs supposent que « l’IA n’est qu’une assistance à l’humain ». Ce n’est toutefois qu’une situation transitoire. On ne peut exclure que, dans le futur, l’IA parvienne à simuler la responsabilité.
Recherches et expérimentations dans le monde
Les travaux visant à conférer un semblant de responsabilité à l’IA ont déjà commencé.
- Éthique descriptive (Delphi) : apprendre le bien et le mal à une IA. Mais la cohérence et les biais restent problématiques.
- Meaningful Human Control : concevoir des systèmes où l’humain garde le contrôle final, plutôt qu’une autonomie totale de l’IA. Approche très discutée pour la conduite autonome et la défense.
- Apprentissage des valeurs (Value Learning) : estimer les valeurs humaines à partir de leurs actions et retours pour réduire l’écart éthique.
- Cadres tels que le NIST AI RMF : institutionnaliser une conception responsable de l’IA.
Ces pistes sont encore balbutiantes, mais elles pourraient devenir le socle permettant à l’IA de « jouer la responsabilité » à l’avenir.
Que signifie simuler la responsabilité ?
Prenons un instant de recul. Que veut dire « simuler » la responsabilité ?
On peut considérer que la responsabilité comporte, par exemple, deux couches.
- Responsabilité de résultat : assumer les conséquences de ses actes.
- Responsabilité de réponse : répondre aux attentes ou aux questions des autres par des explications.
Ce que l’IA peut faire, au mieux, c’est suivre les risques et émettre des alertes, ou expliciter ses justifications pour assurer la transparence. Autrement dit, la responsabilité de l’IA se limite à une forme de « transparence et d’auto-contrainte ». Cela dit, on ne peut exclure que l’intelligence humaine et le sens des responsabilités soient, eux aussi, le produit de simulations générées par le cerveau. Je ressens néanmoins un écart net entre la fierté, les convictions et le sens des responsabilités d’un humain et ceux d’une IA actuelle. D’où vient-il ?
Les facteurs qui creusent l’écart entre humains et IA
Cet écart proviendrait principalement de trois facteurs.
-
Douleur physique et sociale L’humain souffre quand il échoue : pertes économiques, blâme social, détresse psychologique. Cette douleur rend la responsabilité tangible. L’IA peut enregistrer un échec, mais elle ne peut pas le ressentir comme une douleur qui lui revient.
-
Cohérence dans le temps L’humain reste comptable de ses actes et propos dans le futur. Un médecin peut être jugé pour une erreur des années après. L’IA peut dire autre chose la minute suivante sans porter ce poids dans la durée.
-
Valeurs et identité Un humain peut dire « je ne transigerai pas sur ce point car c’est ma conviction ». Cela se lie à la société, à la culture et forge l’identité. L’IA n’a pas d’identité et peut changer de position à volonté.
Dans bien des cas, la responsabilité humaine prend de l’épaisseur parce qu’elle est associée à la douleur, à la cohérence et aux valeurs. Mais il existe aussi des humains irresponsables ou dépourvus d’éthique. L’écart ne serait donc peut-être pas une différence essentielle entre humains et IA, mais plutôt la présence ou l’absence d’expériences sociales et de mécanismes d’appartenance qui soutiennent la responsabilité.
« Moi » et responsabilité
Ici, je repense au « Je pense, donc je suis » de Descartes. Le sens des responsabilités ne se réduit pas au respect des règles ; il se fonde sur une expérience qui appartient au « moi ». La douleur, le regret, le doute ou l’inquiétude — toutes ces expériences internes du « moi » construisent le sentiment d’assumer une responsabilité. Or, aujourd’hui, l’IA n’a pas de « moi ». Elle dispose d’un processus reliant entrées et sorties, mais la douleur ne lui revient pas, elle ne peut ni ressentir la honte, ni l’embarras, ni la fierté. C’est pourquoi nous avons tant de mal à lui reconnaître un sens des responsabilités, et c’est pourquoi l’IA générative livre parfois des réponses ou des résultats irresponsables d’un réalisme déroutant. Certes, le sens des responsabilités humain n’est peut-être lui aussi qu’une simulation engendrée par l’activité cérébrale. Mais pour l’instant, l’IA n’égale pas la simulation d’un humain compétent. La vraie question est peut-être : le sens des responsabilités simulé par l’IA peut-il fonctionner socialement ?
Conclusion et questions
-
Les IA génératives manquent de fierté, de convictions et de sens des responsabilités.
-
Aujourd’hui, cet écart n’est comblé que par un cadre où l’humain reste l’intégrateur responsable du système.
-
Des recherches explorent une « simulation de la responsabilité », mais tant que l’IA n’a pas de « moi », l’écart avec un humain compétent demeure immense.
-
Pourtant, il est possible que même le sens des responsabilités humain ne soit qu’une simulation.
En fin de compte, la question est simple. Peut-on implémenter la « douleur » dans l’IA ? C’est peut-être la condition minimale du sens des responsabilités et du « moi ».
Nous n’avons pas encore de réponse. Mais tant que nous garderons cette question en tête, la discussion sur l’avenir commun de l’IA et des humains restera ouverte. Et le jour où nous trouverons cette réponse — l’IA pourra-t-elle vraiment devenir notre voisine, ou bien sera-ce le moment où elle nous remplacera pour de bon ?