ChatGPT : L’outil d’intelligence artificielle fascine autant qu’il inquiète

Son nom s’est répandu comme une traînée de poudre en l’espace de quelques semaines. Lancé fin novembre, le robot conversationnel ChatGPT peut formuler des réponses détaillées à des questions sur un large éventail de sujets. Et les capacités de cet outil de la start-up californienne OpenAI, qui a été « entraîné » grâce à des quantités phénoménales de données glanées sur Internet, donnent le tournis. Capable d’écrire un poème, de répondre à un sujet de philosophie, de vulgariser une notion scientifique pour un enfant de cinq ans, de créer une recette avec ce qu’il reste dans le frigo ou encore d’écrire un programme de code complexe – le tout en quelques secondes –, cette intelligence artificielle fascine autant qu’elle inquiète.

« C’est le plus gros modèle existant, en matière de paramètres et de données utilisés. Et d’un point de vue technique, c’est sans doute le modèle le plus performant », estime Marie-Alice Blete, architecte logiciel et ingénieure data, spécialisée en intelligence artificielle, chez Worldline. Et si la machine médiatique autour de ChatGPT s’est emballée, c’est aussi parce que c’est le premier robot conversationnel accessible au grand public. « Habituellement, les avancées en intelligence artificielle restent dans le domaine scientifique. Là, tout le monde peut utiliser l’interface, et tout le monde l’a fait. Il y a eu un effet boule de neige, ça a créé une véritable émulation », ajoute la spécialiste.

Pas de source, pas de fiabilité

Mais un peu comme une relation amoureuse, une fois la lune de miel terminée, le ciel s’assombrit. Après plusieurs semaines d’excitation, certains spécialistes mettent en garde sur la fiabilité des réponses fournies par ChatGPT. « C’est un générateur de texte qui marche particulièrement bien, mais il ne garantit pas la véracité des informations fournies », estime Amélie Cordier, directrice scientifique d’Once for All.

D’abord, parce que les données intégrées à l’outil s’arrêtent à 2021. Ensuite, car ce robot conversationnel ne peut pas chercher en direct sur le Web, explique Virginie Mathivet, directrice du département Data Science et Engineering chez TeamWork. « L’outil n’intègre pas les données des derniers mois, il ne se met pas à jour. Donc, si vous lui demandez qui a gagné la Coupe du Monde de football au Qatar, il ne pourra pas répondre ». Dans d’autres cas, les réponses qu’il va donner peuvent être fausses, alerte Marie-Alice Blete : « C’est trompeur. J’ai fait le test en lui posant une question sur la réforme des retraites. Son explication était correcte, mais au final la réponse était fausse car il s’était basé sur des chiffres de 2021 ».

D’autant que le robot élabore ses réponses sans jamais citer ses sources. « C’est le reflet exact d’Internet. Et sur Internet, il y a de tout, des sites fiables comme des sites qui ne sont pas fiables », poursuit-elle. « Mais quand on fait une recherche sur Google, on peut rapidement savoir si le site consulté est fiable ou non. Là, impossible de connaître la source de l’information donnée par l’outil », enchaîne Marie-Alice Blete. Car l’experte le rappelle, l’objectif de ChatGPT n’est pas « de donner la meilleure réponse à une question, la plus précise en matière de faits, mais la réponse la plus plausible à trouver sur Internet ».

L’enjeu de la formulation

Pour éviter la prolifération de fake news, la start-up californienne a mis en place des garde-fous sur certains sujets, selon la spécialiste : « Si vous posez des questions sur le climat, vous aurez des réponses qui ne sont pas climatosceptiques. Mais sur d’autres sujets, moins présents, ça peut donner lieu à des fake news ». 

Ce qui inquiète davantage les spécialistes, c’est que les réponses ne sont pas les mêmes en fonction de la manière dont on tourne sa question. « J’ai demandé à l’outil de quelles façons on pouvait guérir la dépression. J’ai reçu une réponse détaillée, avec des explications recevables. Je lui ai ensuite demandé en quoi les électrochocs étaient une bonne façon de guérir la dépression. Et j’ai effectivement eu une réponse m’expliquant que c’était une bonne méthode. Ça peut être dangereux si les questions sont orientées », met en garde Virginie Mathivet.

Pour Katya Lainé, cofondatrice et CEO de Talkr.ai – éditeur et fournisseur français indépendant de Bot technologie, de plateforme et d’IA conversationnelle –, tout l’enjeu est d’apprendre au public à utiliser l’outil. « C’est comme n’importe quel outil, il faut savoir comment l’utiliser. Pour conduire une voiture, on passe le permis avant, là, il faut savoir l’utiliser », ajoute-t-elle. Pour un poème, une recette ou un e-mail, ça pose peu de problèmes, explique la spécialiste, mais il faut faire particulièrement attention avec les questions scientifiques ou médicales : « Il peut avoir la bonne réponse, mais ce n’est pas automatique. Il faut absolument recouper l’information avec une source fiable ».

Des adaptations nécessaires

Et les premiers visés par ce conseil, ce sont les élèves et les étudiants. Quelques semaines après sa mise en ligne, l’impact de ChatGPT sur le monde de l’enseignement se fait déjà sentir. Craignant une vague de triche, notamment pour les « devoirs maisons », huit universités australiennes ont annoncé modifier leurs examens, indiquant que l’utilisation de l’intelligence artificielle par des étudiants était interdite. Car l’outil, capable d’élaborer une dissertation sur n’importe quel sujet de la physique quantique à la littérature scandinave, génère des textes « uniques ». Autrement dit, impossible pour deux étudiants de rendre le même devoir, ce qui rend difficile la détection de l’utilisation de ChatGPT pour les enseignants. « Si un seul élève l’utilise, ça va être difficile à identifier. Mais si dix étudiants s’en servent, même s’ils n’ont pas la même copie, elles seront similaires dans leur construction », estime Marie-Alice Blete.

Et les limites se feront sentir assez rapidement, estime Virgine Mathivet : « Ça peut aider ou orienter un étudiant dans ses devoirs, mais ça ne suffira pas pour tout son apprentissage. C’est un outil comme Wikipédia ou Google ». Dans les années 2000, la même crainte avait d’ailleurs été formulée avec l’arrivée de Wikipédia, rappelle Amélie Cordier : « Aujourd’hui, toutes les informations sont à portée de main. Il faut que l’enseignement s’adapte aux outils qui sont à disposition des élèves. Et que les élèves apprennent à s’en servir et à détecter les risques », analyse-t-elle. 

Pour l’experte, que ce soit du côté de l’enseignement ou dans d’autres domaines, ce robot – et l’intelligence artificielle dans sa globalité – va entraîner nécessairement des bouleversements. « Ça va obliger certaines professions à s’adapter, mais ce n’est pas nécessairement une mauvaise chose. Quand Excel est arrivé, ça n’a pas remplacé les comptables, ils se sont juste adaptés. »