High-tech

L’IA ne cesse d’halluciner dans la recherche scientifique.

Les hallucinations produites par l’intelligence artificielle pourraient conduire à une remise en cause de la légitimité de nombreux travaux de recherche. En février dernier, la BBC publiait une étude prouvant que plus de la moitié des informations générées par les IA étaient fausses ou biaisées.

Les hallucinations générées par l’intelligence artificielle pourraient remettre en question la validité de nombreux travaux de recherche.
Diagramme pour illustration. // Source : Photo de Bozhin Karaivanov sur Unsplash

En juin 2024, OpenAI faisait l’éloge de ChatGPT, affirmant que ce modèle de langage était capable de réalisations intellectuelles comparables à celles d’un doctorant. Cette affirmation n’est pas passée inaperçue, comme le révèle Rolling Stones, certains chercheurs ayant intégré cet outil dans des articles scientifiques publiés.

Une utilisation qui pourrait engendrer des problèmes majeurs. Andrew Heiss, professeur adjoint au département de gestion et de politiques publiques de l’école d’études politiques Andrew Young de l’université d’État de Géorgie, met en garde contre le risque que l’hallucination des IA puisse altérer le domaine de la recherche.

Des faux réels

Le professeur, après avoir analysé de nombreuses publications, a noté plusieurs exemples d’utilisations frauduleuses. Certains articles utilisant des modèles de langage peuvent mentionner de véritables chercheurs tout en les associant à de mauvaises recherches, d’autres vont même jusqu’à référencer des articles qui n’existent pas ou, pire, des papiers entièrement générés par IA.

Des citations fictives apparaissent dans des recherches bâclées ou malhonnêtes, puis sont reprises dans d’autres articles, et ainsi de suite, jusqu’à ce que le problème se propage.

Andrew Heiss

« Tout paraît authentique et légal », avertit Heiss. De ce fait, de nombreuses fausses informations circulent dans le milieu de la recherche, ce qui ralentit, voire rend caduque, le travail déjà laborieux des chercheurs.

Ces hallucinations ne sont pas réservées aux universitaires : elles sont également fréquentes dans l’usage public. En février dernier, la BBC a publié une étude révélant que plus de la moitié des informations produites par les IA étaient incorrectes ou biaisées. Cela souligne la nécessité de faire preuve de prudence lors de l’utilisation de ces modèles de langage, d’autant plus que certaines entreprises tentent de promouvoir leur adoption malgré un intérêt « modéré ».

Pour aller plus loin
« Ça me sidère » : Microsoft ne comprend pas pourquoi l’IA de Windows ne fait rêver personne


Le saviez-vous ? Google News vous permet de choisir vos médias. Ne manquez pas Frandroid et Numerama.