IA : Gemini, le chatbot de Google, prendra-t-il le contrôle de vos e-mails ?
L’IA de Google, Gemini, pourrait réussir à reproduire le style d’écriture d’un utilisateur grâce à la lecture de ses e-mails reçus et envoyés depuis la création de sa boîte Gmail. En mai 2025, une étude menée par Surfshark a mis en évidence que Gemini exploite deux fois plus de types de données que les autres chatbots d’IA.
L’intelligence artificielle de Google, Gemini, pourrait-elle bientôt prendre en charge vos courriels, voire votre vie ? Un utilisateur a publié sur X, partageant son message plusieurs milliers de fois, qu’au moyen de la lecture des e-mails reçus et envoyés depuis la création de sa boîte Gmail, Gemini serait capable de reproduire son style d’écriture et ses habitudes rédactionnelles.
Selon cet internaute, il serait même possible pour Gemini d’établir un profil psychologique basé sur les nombreuses informations contenues dans ses échanges numériques professionnels et personnels, fournissant ainsi une analyse détaillée de ses névroses les plus intimes.
Un article paru sur pcmag.com le 5 novembre a contribué à cette inquiétude. Intitulé « J’ai autorisé Gemini à accéder à mon compte Gmail, et c’est carrément flippant », l’article décrit les échanges entre l’IA de Google et l’auteur, qui déclare que Gemini, grâce à l’analyse de « 16 ans d’historique de courriels », a pu lui fournir des informations très personnelles sur ses relations amoureuses passées, signant même ses réponses de son propre nom, ce qui a suscité son étonnement.
Un fait important mentionné dans l’article de pcmag.com est que les fonctionnalités de Gemini testées par l’auteur ne sont accessibles qu’aux abonnés à l’AI Pro de Google. Les utilisateurs de Gmail ne bénéficiant pas de cet abonnement n’auront pas accès aux mêmes fonctionnalités, limitant ainsi, en théorie, l’accès de Gemini à ces données.
« Récupérer nos données, c’est en réalité le fonctionnement classique de n’importe quelle IA de type ChatGPT, Meta, etc. dès qu’on l’utilise », explique Laurence Devillers, chercheuse au CNRS et professeure en IA à Sorbonne Université, spécialiste des interactions affectives entre humains et machines. Pour elle, il est évident que Gemini, en version pro ou non, exploite les données des utilisateurs de Gmail, Drive et du Chat de Google.
En mai 2025, une étude de Surfshark sur la cybersécurité a révélé que Gemini collecte particulièrement beaucoup de données. Alors que les autres chatbots d’IA recueillent en moyenne 11 des 35 types de données possibles (comme les coordonnées, l’historique de navigation, la position géographique, etc.), Gemini en exploite le double, ce qui soulève des inquiétudes quant au respect de la vie privée.
Cette situation n’étonne pas la chercheuse : « Par exemple, le modèle économique de Meta repose sur la publicité. Pour générer des revenus, comment faites-vous, selon vous ? Dans un e-mail, vous partagez votre vie. Ensuite, toutes ces informations sont ‘profilées’ et vendues à de nombreuses entreprises. L’utilisation des données pour modéliser votre profil et vendre vos informations n’est pas nouveau. »
En outre, le marché très concurrentiel de l’intelligence artificielle pourrait également expliquer les problèmes soulevés concernant la confidentialité des données utilisées par le chatbot de Google. Pour surpasser ses concurrents, Gemini doit « se nourrir » de manière plus efficace.
« Même s’il n’y a pas forcément de grande révolution en matière d’IA, tout le monde s’excite sur Gemini, car avec cet outil, Google cherche à rivaliser avec OpenAI et ChatGPT notamment. C’est une véritable compétition ! La meilleure manière de concourir est d’intégrer l’IA dans toutes les actions, en l’envisageant comme un assistant qui écoute continuellement et qui peut vous aider à tout moment sur n’importe quel sujet. On est sur la ‘prothèse parfaite’, » estime Laurence Devillers.
Cependant, cette assistance n’est pas sans risques. Si Gemini ne peut pas encore prendre le contrôle de nos e-mails sans notre accord, sa capacité à rédiger à notre place est bien réelle. De plus, l’utilisation du chatbot de Google lui permet d’accéder à une multitude de données, y compris les journaux d’appels, les messages, les contacts, ainsi que l’historique de recherches Google et YouTube et la géolocalisation.
« Avec Gemini, il pourrait arriver qu’il n’y ait parfois plus d’humains derrière certains e-mails envoyés. De plus, au-delà de l’objectif économique, il y a une dimension de surveillance et de manipulation très inquiétante, surtout que ces machines ne sont pas du tout neutres, » prévient la chercheuse.
Elle fait référence au fameux « biais de l’IA », déjà soulevé dans plusieurs études, qui met en évidence que les outils d’IA absorbent les préjugés humains, déformant ainsi leurs données d’entraînement et leurs algorithmes, ce qui entraîne une partialité dans les réponses. Gemini, conçu selon un modèle anglo-saxon, n’échappe pas à ce phénomène.

