High-tech

Suicide d’un adolescent : Faut-il entraîner l’IA à nous contredire ?

OpenAI se retrouve une fois de plus mise en cause dans une affaire sordide. Une famille américaine attaque l’entreprise derrière ChatGPT en justice. Elle l’estime responsable du suicide de leur fils, en avril. L’IA aurait encouragé l’adolescent de 16 ans à passer à l’acte, en lui fournissant des instructions sur la façon de mettre fin à ces jours et en ne l’orientant pas vers des ressources sur la santé mentale. De plus en plus, ces agents conversationnels sont pointés du doigt, accusés de jouer les lèche-bottes au point d’encourager des idées dangereuses.

Dans la langue de Shakespeare, le phénomène a fait bondir l’usage d’un terme : « sycophancy », qu’on peut traduire par « flatterie » ou « flagornerie ». Utilisez ChatGPT trente secondes, et vous êtes certains de l’entendre qualifier vos idées de « géniales ». Si bien que South Park en a fait l’objet de son dernier épisode, et qu’une mise à jour du modèle d’intelligence artificielle la rendant moins chaleureuse a provoqué une levée de boucliers chez les utilisateurs.

« On n’arrive pas à créer des systèmes qui reproduisent les interactions humaines »

« On a entraîné l’IA pour qu’elle ait ce ton-là. C’est le choix de tous les géants du numérique. Flatter l’utilisateur, c’est aussi du marketing. » analyse Laurence Devillers, professeure en intelligence artificielle à Sorbonne université et au CNRS, autrice de L’IA, ange ou démon ? Le nouveau monde invisible. « [Lors des tests], les utilisateurs aiment que les modèles d’IA leur disent qu’ils sont incroyables, donc c’est facile d’aller trop loin dans cette direction », confirmait au New York Times Helen Toner, directrice au centre de sécurité et des technologies émergentes de Georgetown et ancienne membre du bureau d’OpenAI.

Techniquement, faire une IA plus honnête, plus sarcastique ou contradictoire ne serait pas difficile. « On peut insérer des tokens [des instructions pour l’IA] émotionnels, pour rajouter un certain ton, un type de langage ou d’émotion, explique Laurence Devillers. Mais ce que sait faire l’homme et pas la machine, c’est nuancer, doser finement. » Est-ce seulement utile ? Dans le cas du décès de cet adolescent américain, une IA avec un ton différent ou contradictoire n’aurait peut-être rien changé, ou heurté un individu fragile d’une autre manière.

« La machine ne sait pas si l’utilisateur est fragile ou pas », reprend la professeure, qui estime que ces agents conversationnels ne reproduiront jamais la personnalité humaine. « Les interactions humaines sont très complexes et prennent en compte le ton, le langage corporel, le contexte, souligne-t-elle. On n’arrive pas à créer des systèmes qui les reproduisent, ils n’ont pas de compréhension de la chronologie, de l’espace, du sens commun, de ce qui fait l’humain. »

La responsabilité des plateformes en jeu

Dans tous les cas, Laurence Devillers trouve « l’usage de l’IA comme psy, comme compagnon, comme confident, délétère ». « L’illusion de réciprocité – même si elle est purement technique – crée un lien émotionnel solide, assurait à 20 Minutes le psychologue Pascal Laplace. C’est renforcé par la constance, l’absence de jugement et la disponibilité totale de l’outil. » Les experts appellent ainsi à éduquer les utilisateurs et les parents sur les risques psychologiques de ces technologies.

La responsabilité des plates-formes, elle, est aussi mise en jeu. Cette histoire rappelle le cas d’un autre adolescent, qui s’était donné la mort en novembre, encouragé dans son mal-être par des conversations avec Character. AI. Le service offrait la possibilité de discuter avec une IA qui incarnait des personnages de fiction. En mai, « il y a eu une première action de justice positive : ne pas considérer que les agents conversationnels relevaient de la liberté d’expression, qu’ils ne peuvent pas dire tout ce qu’ils veulent ». Ce genre de décision, et l’issue du nombre croissant d’affaires de ce type, pourrait contraindre les entreprises de l’IA à être responsable devant la loi.