Sommet de l’IA : Meta dévoile sa vision de l’avenir de l’intelligence artificielle (bye-bye les robots conversationnels)

A quand un robot qui range le salon à votre place ? On extrapole, mais c’est dans ce sens que Meta, la maison mère de Facebook, Instagram et WhatsApp, envisage l’avenir de l’intelligence artificielle (IA). Pour Yann LeCun, un Français considéré comme un des « parrains » de l’intelligence artificielle et scientifique en chef en charge de ces questions chez Meta, c’est là que se joue l’avenir de la discipline.
« Le prochain défi est de savoir si nous pouvons construire une architecture qui comprend le monde physique », a-t-il développé vendredi à Paris, alors que Meta marquait les dix ans de son laboratoire d’intelligence artificielle dans la capitale et que Paris commençait à accueillir pour une semaine un sommet international au sujet de l’IA.
« Vingt ans qu’on essaie ! »
Alors que le monde se passionne – et s’inquiète – des possibilités des robots conversationnels tels que ChatGPT ou Llama de Meta, bâtis sur de vastes accumulations de données et capables de générer des textes ou des images, ces modèles ne seront pas la voie à suivre pour construire une intelligence artificielle capable d’appréhender le monde physique, selon Yann LeCun. « La mauvaise nouvelle, c’est qu’on ne peut pas utiliser ces grands modèles linguistiques [LLMS en anglais] pour comprendre le monde physique, a-t-il expliqué. On le sait parce que ce ça fait vingt ans qu’on essaie ! »
A l’heure actuelle, « nous n’avons pas de robots domestiques capables de reproduire ce que sait faire un chat », note-t-il. Il faut donc « s’entraîner sur des données naturelles », mais la difficulté est que ce monde physique est « confus » et « ne peut pas être prédit ». Et Yann LeCun de prendre l’exemple d’un objet posé en équilibre sur le rebord d’une table. De quel côté va-t-il tomber ? La réponse n’est pas toujours prévisible.
Un robot capable de planifier une action
Ses équipes travaillent à comprendre et à reproduire ce qui constitue nos interactions avec notre environnement, des interactions qui ne passent pas nécessairement par le langage. L’objectif est de bâtir des systèmes capables de planifier une action pour remplir un objectif.
Première application pratique présentée par Meta vendredi : un robot prénommé Spot, conçu par l’entreprise Boston Dynamics (on vous le montre en action dans la vidéo ci-dessus, en début d’article). Les équipes de FAIR, le laboratoire de recherche de Meta, s’en sont emparées pour expérimenter ses déplacements et ses prédictions dans l’espace. Grâce à des commandes humaines et des caméras embarquées, Spot est capable d’aller chercher des objets qu’il ne connaît pas dans une pièce.
Notre dossier sur l’IA
Pourquoi travailler dans cette direction ? Pour Yann LeCun, « dans un avenir pas si lointain, nous aurons tous des assistants – des lunettes, des bracelets… – avec nous tout le temps. Nous voulons que ces systèmes comprennent notre monde comme un assistant humain ». Le déferlement n’est pas encore pour tout de suite. « Dans un horizon de trois à cinq ans, nous saurons si nous menons les recherches dans la bonne direction », précise-t-il. En attendant, on peut déjà demander aux aspirateurs de fonctionner sans nous.