High-tech

ChatGPT&co : voici ce qui devrait encore évoluer

Le Turing Institute à Londres, une des institutions majeures de recherche en IA en Europe, organisait cette semaine un symposium pour faire le point sur ces fameux Foundation models. On y comprend mieux la logique de base : il s’agit surtout un mécanisme statistique, qui fait apparaître, à la suite d’un texte, le mot le plus vraisemblable. C’est quasi par surprise que l’on a découvert des propriétés « émergentes » de ces modèles, leur capacité à produire des réponses étonnamment pertinentes, ou, moyennant quelques améliorations, à s’engager dans un dialogue, voire même à pondre de la poésie ou à imiter un style.

Mais les défauts de ces outils sont de plus en plus patents : s’ils sont un très bon modèle du langage, ils sont un piètre modèle du raisonnement. Ils manquent cruellement d’une représentation du monde, sont notoirement mauvais sur des questions de temporalité ou de compréhension de l’espace. Les exemples abondent. Tout cela est explicable et va s’améliorer progressivement… mais c’est lourd de conséquences.

Les IA de type ChatGPT (qui vont à coup sûr déferler tout au long de l’année 2023) peuvent certainement être d’une grande aide dans des tâches de rédaction, mais veut-on vraiment envisager de lui confier des tâches de diagnostics médicaux ? Ou de décisions stratégiques pour un business ? De gros efforts sont en cours pour établir des modèles de benchmarking, d’évaluation fine de possibilités de ces modèles. Tant que l’on n’a pas mieux compris ce que contiennent ces fondations, on serait bien avisé de ne pas y bâtir des châteaux en Espagne…