« L’IA va tuer l’open source » : alerte du projet Cal
Le projet Cal a annoncé le retrait de son projet de la communauté open source le 14 avril 2026, invoquant une question de sécurité liée à l’IA. Bailey Pumfleet, le patron de Cal, a déclaré que « la publication du code source d’une application serait désormais plutôt source de découverte de vulnérabilités ».
L’essor de l’intelligence artificielle générative, notamment dans le développement d’applications, continue de bouleverser le marché. Selon Cal, un projet open source bien connu, cela conduit à la fin de l’open source.
Cette annonce a été faite le 14 avril 2026 sur le blog officiel du projet avec des mots assez fermes : « Ce n’est pas un article facile à écrire », reconnaît Bailey Pumfleet, directeur de Cal.
Cette histoire relance le débat autour de l’utilisation de l’IA dans le secteur de la programmation informatique. Cal a décidé de se retirer de la communauté open source, citant l’IA comme raison de cette décision. Ce produit est très populaire et est largement utilisé dans le milieu professionnel pour la planification.
Pour justifier ce passage de l’open source, où le code source de l’application est librement disponible sur Internet, à un code source fermé, réservé aux seuls développeurs de Cal, Pumfleet évoque des préoccupations en matière de sécurité.
Il explique que l’IA permet aujourd’hui de scanner les projets open source pour détecter facilement des vulnérabilités significatives. En d’autres termes, la publication du code source d’une application devient principalement une source de découverte de ces failles.
« Le fait d’être open source revient de plus en plus à fournir aux pirates les plans du coffre-fort. Lorsque la structure est entièrement visible, il devient beaucoup plus facile d’identifier les failles et de les exploiter. Ces derniers mois, nous avons assisté à une vague de start-ups spécialisées dans la sécurité de l’IA qui commercialisent cette fonctionnalité. Chaque plateforme met en avant des vulnérabilités différentes, rendant difficile l’établissement d’une source unique et fiable pour déterminer ce qui est réellement sécurisé. »
Bailey Pumfleet précise que Cal va mettre à disposition une copie de l’actuelle version du logiciel sous licence MIT pour permettre à la communauté de continuer à travailler sur ce clone. Il est donc probable qu’il y ait une version officielle fermée de Cal et une version communautaire open source de l’application.
« Le paysage des risques évolue à un rythme effréné. Les modèles d’IA avancés sont désormais capables d’identifier et d’exploiter les vulnérabilités à une vitesse sans précédent. Récemment, l’IA a par exemple mis au jour une vulnérabilité vieille de 27 ans dans le noyau BSD, l’un des projets open source les plus utilisés et les plus axés sur la sécurité, et a généré des exploits fonctionnels en quelques heures seulement. »
L’argument de la sécurité a parfois été mal utilisé pour s’opposer aux projets open source en se basant sur la peur que la révélation du code d’une application implique des risques.
Cal n’est pas le premier projet open source à lancer un avertissement concernant l’IA. Récemment, le moteur de jeu Godot exprimait également des inquiétudes quant à la surcharge de propositions de code générées par l’IA.

