Google IA confirme une « pluie de poissons » produite par IA.
Des vidéos ont montré des dizaines de poissons éparpillés dans les jardins et les allées de Blue Ridge, en Géorgie, qui ont été filmées pendant un orage au début du mois de novembre. Pourtant, aucune source fiable ne fait mention d’une « pluie de poissons » au début du mois de novembre 2025 dans l’État américain de Géorgie.
La vidéo présente des poissons tombant du ciel et s’accumulant sur les trottoirs d’une ville américaine. « Les habitants de Blue Ridge ont été stupéfaits par un phénomène étrange : des poissons sont tombés du ciel pendant un orage ! Des vidéos ont été filmées… », peut-on lire dans la légende de ce Reel publié sur Instagram au début novembre.
Un extrait de la vidéo décrit : « Des vidéos ont montré des dizaines de poissons éparpillés dans les jardins et les allées. Ce phénomène rare, connu sous le nom de ‘pluie animale’, serait causé par des trombes marines ou de forts courants ascendants qui soulèvent les poissons d’un plan d’eau voisin. »
Vue plus de 34.000 fois sur Instagram et plus de 100.000 fois sur Facebook, cette séquence d’IA générative a été partagée sur d’autres réseaux sociaux comme X ou TikTok. Ces publications ne font pourtant aucune mention de l’IA. Toutefois, des incohérences évidentes montrent que ces extraits vidéo ne représentent pas des événements réels.
En effet, bien que les images semblent réalistes, plusieurs détails indiquent qu’elles n’ont pas été filmées dans les rues de Blue Ridge, en Géorgie. Les voix ont une tonalité particulière, légèrement robotique, typique des vidéos générées par l’intelligence artificielle. De plus, des passages montrent des poissons traversant un toit, une « pluie de poisson » très localisée dans certaines images, un poisson qui s’arrête soudainement de bouger et un drapeau des États-Unis dédoublé, des éléments visuels qui trahissent l’utilisation de l’IA.
Par ailleurs, bien que des cas de « pluie de poissons » existent, ils sont rares et résultent de phénomènes météorologiques, tel que le fait que des poissons soient aspirés par des tornades. Ces poissons, généralement de petite taille, peuvent donc être retenus dans les nuages avant de tomber au sol, à distance. Des cas de « pluie d’animaux » ont été signalés dans plusieurs régions, y compris au Japon, en Australie, au Honduras ou même en Bretagne en février 2022. Cependant, aucune source fiable ne fait état d’une « pluie de poissons » en Géorgie au début novembre 2025.
Un créateur de contenu, spécialisé dans la vérification d’images, a été alerté par plusieurs abonnés sur la prétendue réalité de la vidéo, invoquant une recherche sur Google pour confirmer l’information. « Did it actually rain fish in Blue Ridge, Georgia ? » est la requête anglaise posée lors de cette recherche pour recouper les données.
Le « mode IA » de Google est décrit comme une fonction nouvelle ayant commencée prudemment. « Les résultats IA de Google sont arrivés assez timidement. Au début c’était un tout petit bloc, maintenant ça devient des textes plus élaborés », explique Laurence Dierickx, docteure en Sciences de l’Information et de la Communication à l’ULB (Université Libre de Bruxelles). Pour établir une synthèse, ce mode effectue une sélection de liens considérés comme pertinents, sans garantir leur véracité. La qualité des ressources utilisées pour cette synthèse peut poser problème, car aucune évaluation n’est faite pour confirmer leur véracité.
Ainsi, le web étant alimenté par une grande quantité d’informations, dont certaines peuvent être inexactes ou trompeuses, le résultat de l’IA peut devenir un cercle vicieux, mêlant vérité et erreur dans un monde où la déontologie de l’information est fondamentale.
L’intégration de l’IA dans le moteur de recherche change les façons de recouper les sources, mais soulève des questions sur la confiance accordée à ces résumés présentés de manière convaincante. « Le problème de ces résumés, c’est qu’ils sont présentés de manière convaincante, il peut donc y avoir une tendance de l’utilisateur à prendre ça pour argent comptant », avertit Dierickx. Cela met en lumière le risque d’une hyperpersuasion liée aux IA, où les utilisateurs peuvent accorder une confiance excessive à ces technologies sans en évaluer la fiabilité.
Ces modèles de langage, alimentés par des données probabilistes, peuvent également reproduire des biais ou halluciner, c’est-à-dire produire du contenu fictif. Cela soulève la question fondamentale de savoir comment différencier le vrai du faux dans un contexte où cette différence est déjà sujette à débat.
Pour finir, il est encore plus important de multiplier les recherches et de vérifier les sources afin d’éviter les pièges de la désinformation et de préserver une perception claire de la réalité.

