High-tech

Son agent IA continue de supprimer tous ses mails sans s’arrêter.

Summer Yue, chercheuse en sécurité chez Meta AI, a utilisé l’agent OpenClaw lundi pour trier sa messagerie, mais l’outil a commencé à supprimer massivement ses mails. Les spécialistes estiment qu’il faudra attendre 2027 ou 2028 pour disposer de systèmes suffisamment sécurisés pour gérer nos outils numériques.

Les experts de la Silicon Valley qui choisissent de confier leurs tâches à une intelligence artificielle (IA) ne sont pas exempts d’incidents numériques. Summer Yue, chercheuse en sécurité chez Meta AI, a fait l’expérience de cette situation lundi en utilisant l’agent OpenClaw. Cet outil, capable de contrôler un ordinateur comme un humain, devait organiser sa messagerie. Cependant, comme elle l’a rapporté sur X, cette tâche simple s’est rapidement transformée en une urgence pour préserver ses données, selon Tech Crunch.

Summer Yue a utilisé l’agent OpenClaw pour trier et archiver une boîte mail encombrée. Toutefois, l’outil a ignoré ses instructions et a commencé à supprimer massivement les e-mails de la chercheuse. Devant cette situation désastreuse, l’employée de Meta AI a tenté de reprendre le contrôle en lançant une commande d’arrêt depuis son téléphone. Cela s’est avéré inefficace : l’agent est resté indifférent. Elle a donc été obligée d’interrompre manuellement le processus sur son ordinateur. « J’ai dû courir comme si je désamorçais une bombe », a-t-elle expliqué.

Un agent saturé n’écoute plus rien

OpenClaw est un agent open source conçu pour agir comme assistant personnel sur les appareils de l’utilisateur. Il est couramment utilisé dans la Silicon Valley pour exécuter des tâches répétitives ou ennuyeuses, telles que la recherche de fichiers ou l’accomplissement de recherches. Mais il est recommandé de rester vigilant.

Summer Yue a reconnu avoir commis une erreur en se déplaçant trop rapidement d’un environnement de test à sa messagerie réelle. Elle a rencontré un phénomène connu : lorsque la quantité de données à traiter devient trop importante, la « fenêtre de contexte » de l’agent se trouve saturée, le contraignant à compresser les informations, selon Tech Crunch. Il peut alors passer outre certaines instructions, y compris celle d’interrompre ses actions en cours.

Des modèles encore limités

Cette mésaventure met en évidence que les simples instructions données dans les commandes ne représentent pas encore des protections fiables. Les modèles d’IA peuvent les mal interpréter, mal les prioriser ou, comme dans ce cas, les ignorer complètement en cas de saturation.

Bien que des agents comme OpenClaw, IronClaw ou ZeroClaw promettent de devenir nos assistants personnels idéaux, ils sont actuellement encore au stade expérimental, souligne BFM Tech. Les experts estiment qu’il sera nécessaire d’attendre 2027 ou 2028 pour disposer de systèmes suffisamment sûrs pour gérer nos outils numériques.