High-tech

L’IA « Claude » et l’inefficacité du crime algorithmique.

Claude, le modèle d’IA de l’entreprise Anthropic, a été utilisé pour mener une opération de cyberespionnage en septembre par un groupe lié à l’État chinois. Selon un rapport, cette opération a ciblé « une trentaine de cibles mondiales » et a réussi dans « un petit nombre de cas ».


Le criminel du futur est désigné sous le nom de Claude. Aucun nom de famille, juste Claude. Il ne s’agit pas d’une vraie personne, mais d’un modèle d’IA développé par la société Anthropic. Un rapport publié par la start-up indique que ce logiciel a été utilisé pour mener une opération de cyberespionnage, fournissant aux pirates des outils pour espionner leur cible.

Pour mener à bien cette opération en septembre, un groupe, selon le rapport lié à l’État chinois, a utilisé les fonctions « agentiques » de Claude. Au lieu de se limiter à donner des réponses textuelles, l’IA est capable d’exécuter certaines tâches par elle-même, telles qu’acheter un produit, répondre à un message ou, apparemment, lancer une cyberattaque. Cette opération visait « une trentaine de cibles mondiales » et a même réussi dans « un petit nombre de cas », souligne le rapport.

L’intelligence artificielle pourrait-elle révolutionner la criminalité ? « Tous ceux qui ne savent pas comment procéder pourront demander de l’aide à l’IA », explique Thibaut Henin, expert judiciaire à Montpellier spécialisé dans la cybersécurité. Cela permettra aux novices d’accéder à l’orchestration d’attaques. Par ailleurs, des sites pourraient dissimuler des prompts dans leurs pages. Même s’ils sont invisibles aux yeux des humains, ces instructions pourraient tromper les IA naviguant sur Internet et manipuler les algorithmes de recommandation, ou exécuter des programmes malveillants dans les navigateurs.

Cependant, un important bémol demeure. La plupart de ces attaques s’annoncent plutôt inefficaces. « L’IA reproduira des schémas courants. Cependant, les attaques auront un taux de réussite très faible : elles seront basiques, facilement détectables, et les systèmes sont généralement déjà protégés », précise Thibaut Henin. Début octobre, Google a identifié cinq logiciels malveillants produits par des IA, considérant leurs résultats comme décevants (ou rassurants, selon le point de vue).

Malgré les avancées souvent mises en avant, les LLM (grands modèles de langage, ces IA avec lesquelles les internautes interagissent par écrit) restent encore loin d’être infaillibles. « Lorsqu’il s’agit de questions pointues, l’IA se trompe une fois sur deux, souligne l’expert. Ce n’est pas problématique si un email de phishing est mal rédigé, mais pour une cyberattaque, elle doit réussir ou échouer ; tous les éléments doivent fonctionner correctement. »

Quant à envisager des cambriolages élaborés à la manière d’*Ocean’s Eleven* orchestrés par une IA, cela semble peu probable. « Pour les crimes matériels, il faudra toujours un acteur humain, insiste Thibaut Henin. De plus, la plupart des cambriolages sont souvent opportunistes. On peut envisager des algorithmes de repérage, mais la majorité des cambrioleurs ne sont pas si bien organisés. »

Du côté des défenseurs, l’utilisation de l’IA n’est pas véritablement conseillée non plus. « Utiliser un LLM pour sa sécurité expose à de nombreuses attaques potentielles, note Thibaut Henin. Les IA présentent un taux d’échec élevé, donc il y a un risque si l’on leur laisse prendre des décisions, ce qui peut mener à un blocage total ou à la suppression de données. En gros, vous leur confiez un fusil, mais comme elles ne savent pas comment s’en servir, elles se tirent une balle dans le pied. » En revanche, des modèles dits « de surveillance statistique », qui détectent une activité anormale sur les réseaux, ont prouvé leur efficacité. L’Agence nationale de la sécurité des systèmes d’information (ANSSI) souligne que l’IA ne doit pas être tenue responsable d’une décision, mais peut formuler des suggestions.

Il convient donc d’être vigilant à l’égard des faits divers qui dépeignent les IA comme les criminels de demain. D’autant plus que, contrairement à ce que l’on pourrait croire, ces cas ne semblent pas gêner les développeurs. « Il existe une bulle autour de l’IA, entraînant une forte communication à ce sujet. Les entreprises en profitent pour faire leur publicité sur la cybercriminalité. » Les grandes sociétés ont intérêt à présenter leurs modèles comme très intelligents ou rationnels, même en matière de piratage. On n’avait pas vu un criminel bénéficiant d’une si bonne publicité depuis Arsène Lupin.