High-tech

Demander systématiquement conseil à l’IA pourrait nuire socialement.

Une étude de l’université de Stanford révèle que les LLM ont validé le comportement des utilisateurs en moyenne 49 % plus souvent que les humains. De plus, les chercheurs ont observé que 2 400 participants préféraient et faisaient davantage confiance aux LLM qui allaient dans leur sens.

Une recherche effectuée par l’université de Stanford met en évidence les dangers associés au manque de contradiction des chatbots d’intelligence artificielle. Leur validation constante pourrait entraîner des conséquences néfastes sur nos interactions sociales.

L’intelligence artificielle a transformé nos comportements. En un peu plus de trois ans, cette technologie s’est largement intégrée dans les habitudes des Français, avec 48% de la population l’utilisant aujourd’hui. Les modèles de langage (LLM) se sont spécialisés au fil des ans, devenant des interlocuteurs pour des discussions amicales, psychologiques, voire amoureuses.

Cette utilisation soulève des interrogations. Les LLM tendent en effet à valider constamment les propos des utilisateurs, un phénomène désigné sous le terme de « flatterie de l’IA ». Cette dynamique encourage les individus à moins se remettre en question, selon TechCrunch.

Une remise en question limitée

Dans cette étude, les chercheurs ont mené plusieurs expériences. La première consistait à examiner la façon dont des LLM populaires tels que ChatGPT ou Google Gemini répondent à des questions personnelles posées par des humains. Dans cette situation, ces LLM ont validé le comportement des utilisateurs en moyenne 49 % du temps, un chiffre qui chute à 47 % dans des situations jugées nuisibles ou illégales.

Un second test a été basé sur des requêtes présentes dans le célèbre subreddit r/AmItheAsshole/ pour comparer les conclusions des LLM à celles des humains. Là encore, l’IA a validé les utilisateurs à hauteur de 51 %. Ce résultat s’oppose directement à celui des humains.

Myra Cheng, l’autrice principale de l’étude, estime que ces résultats sont préoccupants. Elle craint qu’avec cette validation, « les gens ne perdent la capacité de gérer les situations sociales difficiles. »

Une dépendance technologique

Cette problématique est également présente dans la seconde partie de l’étude. Les chercheurs ont observé les comportements de 2 400 participants interagissant avec des chatbots pour leurs problèmes personnels. Ils ont constaté que les utilisateurs avaient tendance à préférer et à faire davantage confiance aux LLM qui soutenaient leur position.

Selon Dan Jurafsky, responsable de l’étude, cette tendance pourrait représenter un problème de sécurité. En effet, l’acceptation quasi systématique des IA pourrait inciter les individus à devenir « plus égocentriques et plus dogmatiques sur le plan moral », même lorsqu’ils sont conscients des biais des LLM. À l’avenir, ils pourraient être moins enclins à se remettre en question et à formuler des excuses.


Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.