High-tech

Laurence Devillers : « Les systèmes d’intelligence artificielle livrent un semblant de vérité sans citer leurs sources »

Informée du cas dramatique d’un jeune Belge ayant mis fin à ses jours suite à un échange de six semaines avec Eliza, un agent conversationnel (chatbot) utilisant une technologie similaire à ChatGPT, Laurence Devillers explique que c’est pour éviter ce type de drame que des réflexions et des travaux sont menés, en France et dans d’autres pays européens, pour encadrer l’IA (et, en particulier, les modèles de langage de grande taille ou Large Language Model). Cet encadrement passe par trois grands piliers : la loi, la normalisation et les garde-fous éthiques. “La future législation européenne, l’AI Act, obligera les entreprises à faire attention et, notamment, à mieux surveiller les interactions des personnes avec les nouveaux systèmes d’IA. J’ai espoir que les travaux menant à l’AI Act seront le moyen de réfléchir, collectivement, aux enjeux et aux risques liés à l’IA”.

guillement

« Intégrer ces systèmes dans des produits accessibles à tout le monde, comme le font OpenAI et Microsoft, pose question. »

Laurence Devillers pointe du doigt l’extrême puissance et l’opacité des systèmes du type GPT-3/GPT-4. “On ne dispose pas de tous les éléments permettant de savoir comment ils ont été développés, souligne l’experte française. Intégrer ces systèmes dans des produits accessibles à tout le monde, comme le font OpenAI et Microsoft, pose question. Il faut éviter que ces systèmes d’IA, qui sont en train de déferler, finissent par dicter ou influencer nos décisions, sachant tous les biais générés par ces systèmes et nos propres biais cognitifs”.

Laurence Devillers.
Laurence Devillers, professeure d’intelligence artificielle à Sorbonne Université. ©D.R.

Des résultats à la robustesse très faible

Faudrait-il imposer, à ceux qui développent ces systèmes d’IA géante, un devoir de transparence ? Ce n’est pas aussi simple que ça, répond Laurence Devillers. “Dans les ‘Large Language Models’, il existe des niveaux qu’on ne peut tout simplement pas rendre explicables. On se retrouve devant une machine qui agrège des avis, des faits scientifiques, des fake news, etc., sans que le concepteur du modèle, ni l’utilisateur, ne puisse comprendre le résultat final et son origine. De temps en temps, le résultat imite parfaitement une source que l’on connaît. Mais, dans la plupart des cas, ce résultat reste très approximatif. La robustesse des résultats qui sortent de ces machines demeure encore très faible en raison de nos biais cognitifs, des stéréotypes, des effets de moyenne, de l’influence des opinions… Pour le dire autrement, les résultats sont incertains et peuvent être à l’origine de désinformations et de manipulations. La machine livre en fait un semblant de vérité. Malheureusement, beaucoup de personnes ne prennent plus le temps de trier, de vérifier, de contrôler. Il y a un excès de confiance de leur part dans ces systèmes. On aboutit à une forme d’aveuglement et, dans le cas du suicide du jeune Belge, à une projection affective dans les résultats artificiels, statistiques, qui sortent d’une machine”.

guillement

« Les gens doivent bien comprendre que ces machines fonctionnent sur du langage statistique, dénué de toute vérité, conscience, intention ou émotion. »

Pour Laurence Devillers, il faut que les citoyens soient plus au fait de ce que sont ces systèmes d’IA. “Il ne s’agit pas de demander à tout le monde de savoir coder, mais de comprendre les concepts qui se trouvent derrière ces systèmes. Les gens doivent bien comprendre que ces machines fonctionnent sur du langage statistique, dénué de toute vérité, conscience, intention ou émotion. La machine, au départ d’un grand nombre de données, apprend à imiter ce que nous faisons. Mais elle a aussi une forte propension à manipuler et à halluciner. Il ne s’agit donc pas de tout rejeter, mais de mieux comprendre comment il est possible de les utiliser à bon escient”.

Enfin, à ceux qui annoncent déjà des machines capables de détecter et manipuler les émotions humaines, Laurence Devillers, dont les travaux portent sur les interactions affectives entre les humains et les machines, explique que c’est possible. “Les machines peuvent aller chercher dans l’expressivité – que ce soit à travers le visage, la voix, la façon de parler, la posture, les gestes, …- des informations qui peuvent inférer sur l’état mental et affectif d’une personne. Mais, là encore, il s’agira d’une approximation”.

(*) L’événement, organisé par AI4Belgium, a lieu ce jeudi, dès 18 heures, à l’Eurometropolitan e-Campus de Tournai. Il est indispensable de s’inscrire sur ee-campus.be/ai-european-week