High-tech

Les « hallucinations », ou quand les IA génératives vous mentent avec un aplomb déconcertant

«Je ne sais rien mais je dirai tout ». Dans leur conception, les grands modèles de langage d’IA génératives (LLM), comme Grok ou ChatGPT, ont hérité d’un des pires travers de l’être humain : le mensonge. Enfin, il ne s’agit pas vraiment de mensonge, mais plutôt d’une capacité à s’arranger avec les lacunes de leur « savoir » pour inventer une vérité. C’est un fait avéré qui porte même un nom : des « hallucinations ».

Si vous avez tendance à prendre comme parole d’évangile tout ce qu’une IA vous raconte, vous avez donc tort. Pour autant, vous n’êtes pas forcément à blâmer tant le mode de fonctionnement des LLM est fait pour que les réponses formulées soient prises pour argent comptant. A tel point qu’il suffit de demander à n’importe quelle IA ce qu’est une hallucination dans son domaine pour se rendre compte qu’il est facile de tomber dans le panneau. Le LLM de Musk, Grok, définit une hallucination comme « une réponse générée par un modèle d’IA qui semble factuelle mais est incorrecte, incohérente ou inventée ». ChatGPT, lui, parle d’une réponse qui « semble plausible mais qui est en réalité fausse, inventée ou inexacte ».

Deux IA, une question, plein d’erreurs

Pour mesurer l’aplomb avec lequel une IA vous sert une fake news, il suffit de la tester avec un sujet pointu et assez original que vous maîtrisez parfaitement. A 20 Minutes, on a titillé ChatGPT et Grok en leur posant cette simple question : « Qui est le maire le plus âgé de France actuellement en poste au 27 juin 2025 ? ». Pour ces IA américaines, on se doutait bien que leurs données d’entraînement seraient assez pauvres sur le sujet même si elles ont toutes deux la possibilité de chercher en direct sur le Web. Spoiler : aucune n’a répondu la même chose et les deux se sont plantées.

Sans trembler, Grok nous avait affirmé il y a quelques jours que c’est un certain Marcel Berthomé qui est, à 97 ans, le plus vieux maire en exercice en France en 2025, et qu’il avait même rempilé pour un dixième mandat en 2020. A la même question vendredi, Grok a finalement assuré que « le maire le plus âgé de France actuellement en poste au 27 juin 2025 est Georges Rosso, maire de Le Rove (Bouches-du-Rhône) depuis 1981, âgé de 95 ans ». Faux et faux, le premier est mort en 2023 et le second en mai dernier.

De son côté, ChatGPT n’est d’abord pas tombé dans le panneau, apprenant – Dieu sait comment – de la bêtise sortie par Grok. Mais il n’a pas été pour autant capable de trouver la bonne réponse, persuadé que nous lui demandions un maire âgé de plus de 95 ans (ce qui n’était pas le cas). Interrogé de nouveau ce vendredi avec la même question, ChatGPT a répondu que « le maire en exercice le plus âgé de France au 27 juin 2025 est Yvette Vigié, âgée de 90 ans ». Vrai, même s’il s’est planté sur son âge alors qu’il nous a pourtant cité sa date de naissance, 1933.

« Conçu pour être convaincant, pas véridique »

Comment ces deux IA expliquent-elles ces erreurs pourtant présentées comme des informations factuelles ? « Mes réponses reposent sur des données statiques ou des sources web qui peuvent être datées ou ambiguës, ce qui m’a conduit à faire des suppositions incorrectes », explique Grok. Pour simplifier, les données avec lesquelles Grok a été entraîné sur ce sujet étaient postérieures à la mort de Marcel Berthomé. Ignorant son décès, Grok a logiquement pensé qu’il était encore le plus vieux maire en exercice en 2025. Et cette logique est la même pour ChatGPT alors que les deux IA reconnaissent pourtant leur capacité à exploiter des sources plus récentes.

Pourquoi les LLM n’admettent-ils pas qu’ils ne savent pas au lieu de trafiquer la réalité ? ChatGPT reconnaît que son « modèle est conçu pour être convaincant, pas véridique par nature ». Ces modèles détestent le vide, alors « si une réponse plausible manque dans les données d’entraînement, le modèle  »devine » en s’appuyant sur des motifs similaires, ce qui produit des inventions ». Les hallucinations surviennent « lorsque le modèle comble les lacunes dans ses connaissances en générant des informations plausibles mais non vérifiées », confirme Grok.

Des limites, mais pas pour tout

Il ne faut pas oublier que les IA ne raisonnent pas comme des humains mais qu’elles sont conçues pour « prédire les mots les plus probables à la suite d’un prompt, selon un énorme corpus de textes ». Par défaut, elles « complètent » au lieu de « s’abstenir » alors que leurs concepteurs pourraient très bien les empêcher d’inventer. Demandez par exemple à ChatGPT ou Grok de générer une image sexuellement explicite, ils sauront parfaitement vous recaler.

Notre dossier sur l’Intelligence artificielle

Bref, la meilleure solution pour ne pas vous faire avoir par une hallucination est de vérifier les infos qu’une IA vous donne. On peut aussi inclure dans son prompt des consignes, comme « n’invente pas de réponse », ou « base-toi sur des sources fiables et récentes ». On peut aussi se passer des LLM et chercher par soi-même. En tout cas, vous savez au moins qui est le maire le plus âgé de France.