High-tech

Wikipedia ne permet plus la rédaction d’articles par l’IA.

La Fondation Wikimedia a mis à jour ses directives, interdisant formellement l’utilisation des LLM pour générer ou réécrire des articles sur Wikipédia. Les administrateurs vont s’appuyer sur la vérification des sources, l’historique des modifications et la cohérence éditoriale pour appliquer cette règle.

Wikipédia a pris une décision claire : l’intelligence artificielle n’est plus autorisée à rédiger des articles. La Fondation Wikimedia renforce ses règles pour garantir la fiabilité de son contenu, tout en reconnaissant que débusquer les tricheurs sera un véritable défi technique.

Il était prévisible que la relation entre l’encyclopédie la plus consultée au monde et l’intelligence artificielle serait tendue, et nous y sommes. La Fondation Wikimedia a récemment mis à jour ses directives : l’utilisation de grands modèles de langage (comme GPT-4 ou Gemini) pour générer ou réécrire des articles est désormais formellement prohibée.

La raison ? Wikipédia repose sur deux principes fondamentaux que l’IA enfreint par nature. D’une part, l’interdiction de la « recherche originale » requiert que tout soit sourcé. D’autre part, il y a l’exigence de vérifiabilité. Or, un LLM, par définition, prédit le mot suivant. Il ne vérifie rien, il peut parfois inventer des sources fictives, et il peut avancer des contre-vérités avec une assurance déconcertante.

Le vrai problème : c’est impossible à détecter

Mais la situation pose un problème concret. Comment Wikipédia prévoit-elle d’appliquer cette règle ? C’est là que les choses se compliquent. La fondation elle-même en est consciente : il est impossible de déterminer avec certitude si un texte a été écrit par une IA ou par un humain au style trop académique. Certains contributeurs écrivent naturellement de façon clinique, presque désincarnée, ce qui ressemble de près à un style machine.

Wikipédia ne recourra pas à des « détecteurs d’IA » miracles (qui, rappelons-le, ne sont pas fiables). Les administrateurs se fieront aux méthodes traditionnelles :

  • La vérification des sources : si les liens sont non fonctionnels ou inventés, le contenu sera éliminé.
  • L’historique des modifications : un utilisateur publiant 50 articles parfaits en trois minutes sera forcément considéré comme suspect.
  • La cohérence éditoriale : le contenu doit respecter les règles de neutralité habituelles.

Il existe toutefois des exceptions. L’IA peut être utilisée pour des corrections orthographiques de base ou pour aider à la traduction d’articles d’une langue à une autre. Cependant, le traducteur automatique ne doit pas ajouter le moindre adjectif absent du texte original.

Mais c’est quoi le slop ?

Le problème réside dans le fait que le web est en train de se remplir de ce que l’on appelle le « slop », ces contenus générés en masse pour le SEO, dépourvus de valeur humaine ajoutée. Si Wikipédia laissait la porte ouverte, l’encyclopédie deviendrait rapidement un dépotoir de textes lisses, moyennement précis et potentiellement truffés d’erreurs historiques ou scientifiques.

La stratégie de Wikipédia est ainsi une forme de résistance passive. Ils savent qu’ils ne pourront pas tout bloquer, mais en posant cette interdiction, ils se donnent une base juridique pour supprimer massivement les comptes suspects.

Cette démarche est cruciale pour préserver leur crédibilité. Wikipédia souhaite demeurer le dernier bastion du contenu « sourcé par un humain ».

En résumé, la fondation prend ses responsabilités et met en place un garde-fou.