France

ChatGPT peut-il être poursuivi en France pour complicité criminelle ?

L’intelligence artificielle, comme ChatGPT, a été mise en cause aux Etats-Unis pour avoir aidé l’auteur d’une fusillade en Floride en avril 2025, ayant fait deux morts et six blessés. Selon Baptiste Buissart, avocat pénaliste, la loi française stipule que seules des personnes physiques ou morales peuvent être poursuivies, ce qui exclut un logiciel comme ChatGPT de toute responsabilité pénale directe.


Elle a la capacité de composer de la musique, d’écrire des scénarios et de générer des images. L’intelligence artificielle présente de nombreuses qualités, mais aussi des défauts. ChatGPT pourrait se retrouver sur le banc des accusés aux États-Unis. L’IA de Sam Altman aurait assisté l’auteur d’une fusillade en Floride, ayant causé deux morts et six blessés en avril 2025.

Les enquêteurs, rapportés par NBC, ont examiné plus de 200 messages envoyés au logiciel et ont révélé une certaine complicité de ChatGPT, qui aurait donné « des conseils au tireur avant qu’il ne commette ces crimes odieux », tels que le type d’arme à utiliser, les munitions appropriées ou la période de forte affluence sur le campus. « Si ce chatbot était une personne, il ferait face à des charges de meurtre au premier degré », a ajouté James Uthmeier, procureur général de l’État, qui a ouvert une enquête criminelle contre OpenAI et ChatGPT.

**« Des garde-fous existent déjà »**

Peut-on imaginer qu’un jour un logiciel d’intelligence artificielle soit accusé de meurtre en France ? Pour Baptiste Buissart, avocat pénaliste et enseignant en cybercriminalité à l’université catholique de Lille, ChatGPT, « tout intelligent qu’il soit, n’est pas du tout » un justiciable comme les autres. Selon le droit français, « seules des personnes physiques – donc un corps humain – ou morales – comme une société, une entreprise – peuvent être poursuivies », précise-t-il.

Il est possible d’engager la responsabilité pénale d’un dirigeant d’entreprise, mais cela nécessite de prouver qu’il a consciemment aidé à commettre l’acte reproché. Cela a été le cas pour Bruno Lafont, ancien PDG de Lafarge, condamné à six ans de prison pour financement du terrorisme. Concernant la fusillade aux États-Unis, ChatGPT a seulement répondu à des questions en « fournissant des informations déjà accessibles au grand public », explique encore Baptiste Buissart.

Les législateurs pourraient envisager de modifier la législation, mais il faut « être très prudent », car cela pourrait s’avérer « dangereux », avertit l’avocat, en rappelant qu’une intelligence artificielle n’est qu’« un moteur de recherche ultra-performant ». Ce serait différent si des logiciels étaient spécifiquement créés pour commettre des infractions, comme certaines applications utilisées pour des arnaques. De plus, ChatGPT ne répond pas à des questions directes comme : « Comment commettre une tuerie ? » « Donc des garde-fous existent déjà », souligne l’avocat.

**La délinquance numérique, un défi juridique**

Cependant, la question demeure, en particulier concernant la pédopornographie. En janvier dernier, Grok, la plateforme appartenant à Elon Musk, a reconnu des « failles » dans son système permettant à des utilisateurs de générer des images à caractère sexuel impliquant des femmes et des mineurs. Dans ce contexte, « la loi donne déjà la réponse puisqu’elle interdit la création ou la transmission d’images pédopornographiques », rappelle Baptiste Buissart.

Même si la société ChatGPT ou toute autre entité d’intelligence artificielle était incommodée par la justice et condamnée en France, la mise en application de la peine poserait un problème. « C’est toute la difficulté qui se pose dans le numérique : comment exécuter une peine d’amende à l’encontre d’une personne morale à l’étranger ? Le juge ne pourra pas la faire appliquer », avertit Baptiste Buissart.

Tout notre dossier sur l’intelligence artificielle. Il en est de même pour le piratage. Malgré une lutte intense durant plus de vingt ans pour fermer et condamner les sites portant atteinte aux droits d’auteur, ceux-ci réapparaissent sans cesse sans être réellement inquiétés.