Maroc

La polémique sur la capacité de Nano Banana, l’IA de Google, à créer de faux documents

L’ingénieur indien a publié une démonstration sur le réseau X montrant que Nano Banana Pro, l’outil de génération d’images développé par Google, peut produire des duplicatas bluffants de cartes officielles comme les Aadhaar et PAN en Inde. Les systèmes de vérification actuels, reposant largement sur de simples photos envoyées via des applications, se retrouvent en première ligne face à des images générées par IA qui sont désormais visuellement indiscernables du réel.


L’affaire a débuté avec une démonstration publiée sur le réseau X par un ingénieur indien, mettant en lumière que **Nano Banana Pro**, l’outil avancé de génération d’images développé par **Google**, a la capacité de produire **des duplicatas impressionnants** de documents officiels tels que les cartes Aadhaar et PAN en Inde, qui correspondent aux cartes nationales d’identité et aux numéros fiscaux dans de nombreux pays. En utilisant un simple prompt textuel, le système crée des documents caractérisés par des textures authentiques, des typographies presque conformes, des photos synthétiques crédibles et des éléments graphiques reproduits avec une précision alarmante. Bien que fictives, les identités générées semblaient suffisamment plausibles pour passer **les contrôles visuels traditionnels**.

Cette démonstration ne se limite pas à l’Inde et soulève un risque global, y compris dans les pays où Nano Banana est largement disponible, notamment **le Maroc**, même si, à ce jour, aucun cas n’a été signalé. Dans plusieurs régions du monde où **la digitalisation** est encore inachevée (en Afrique, en Asie du Sud ou en Amérique latine), les services financiers et administratifs dépendent encore en grande partie de l’analyse d’images statiques pour les procédures KYC, l’ouverture de comptes ou l’activation de cartes SIM. Les technologies de marquage invisible, comme **SynthID** intégré par Google, ne représentent pas une **protection suffisante**, car ces filigranes peuvent être contournés par un simple recadrage ou une altération de la qualité de l’image.

Face à cette situation, les experts en **cybersécurité** craignent une véritable industrialisation de **la fraude identitaire**. La génération de faux documents par IA peut se faire en grande quantité, en quelques secondes et sans aucune compétence technique requise. Ces faux justificatifs peuvent ensuite être utilisés pour ouvrir **des comptes bancaires, demander des crédits instantanés**, créer **des identités fictives** destinées à des **activités illégales** ou **activer des cartes SIM** utilisées dans des **campagnes de phishing** ou pour **intercepter des codes OTP**. Sur les marchés clandestins, ce type d’identité synthétique pourrait devenir un produit commercialisable, proposé en tant que service prêt à l’emploi aux fraudeurs.

Dans ce contexte, les systèmes de vérification actuels sont à l’avant-garde, d’autant plus qu’une grande partie des **processus d’intégration** repose encore sur de simples photos envoyées via des applications, un mécanisme devenu peu efficace face à des images générées par IA, désormais indiscernables du réel. Plusieurs spécialistes appellent à une transition vers des approches plus robustes : **vidéo en direct, détection de vivacité faciale**, **analyse automatisée des artefacts génératifs** ou encore vérification systématique via les **API officielles des gouvernements**. Les analystes soulignent qu’il ne s’agit plus simplement d’améliorer les contrôles, mais de réinventer complètement la notion de preuve d’identité dans un monde où l’image n’est plus une garantie fiable.

L’incident a ravivé un débat mondial concernant la sécurité numérique, la confiance dans les documents officiels et la régulation des outils d’intelligence artificielle, tant la menace apparaît désormais structurelle. Pour les institutions financières, les opérateurs de télécommunications et les administrations, il est crucial de modifier rapidement leurs systèmes dans un paysage où la fraude est devenue non seulement artisanale mais aussi automatisée, scalable et difficilement détectable. Les spécialistes s’accordent à dire que **la fraude identitaire** entre dans une nouvelle ère, alimentée par la puissance de l’IA, et qu’une **modernisation accélérée des mécanismes de défense** est indispensable pour contenir cette menace grandissante.