Emma, Thomas et Arthur, avocats IA gratuits : prudence avec AILawyer et autres
Le site AILawyer.be se présente comme un assistant juridique intelligent, « 100% gratuit. 100% confidentiel. 100% belge. » Emma AI Lawyer, Thomas AI Lawyer et Arthur AI Lawyer sont des chatbots qui répondent à des questions juridiques, mais ne sont pas des avocats et peuvent donner des réponses incomplètes ou incorrectes.

« Votre assistant juridique intelligent, disponible 24/7« . « 100% gratuit. 100% confidentiel. 100% belge. » C’est ainsi que se présentent les services d’AILawyer.be. Ce site propose trois chatbots : Emma AI Lawyer, expert en droit de la famille, Thomas AI Lawyer, spécialiste en droit du travail, et Arthur AI Lawyer, qui s’y connaît en droit fiscal. Contrairement à un avocat, ces assistants numériques vous répondent gratuitement.
Toutefois, il ne s’agit pas réellement d’avocats. Ces personnages sont de simples chatbots, accompagnés de photos de banques d’images. Le site se qualifie de « équipe d’intelligences artificielles spécialisées en droit« , prête à répondre à vos interrogations.
Emma, par exemple, traite des questions relatives au divorce, mais il est difficile de juger de la pertinence de ses réponses. Frédéric Dechamps, avocat spécialisé en droit commercial, propriété intellectuelle et droit numérique, teste alors les réponses d’Emma, Thomas et Arthur.
Me Dechamps obtient des réponses correctes sur des questions simples de législation, notamment sur le RGPD, avec des références jugées acceptables. En revanche, pour une question plus technique concernant la procédure de licenciement pour motif grave, il relève des manques : « Il manque un élément crucial dans la procédure formelle, à savoir que le motif grave doit être notifié dans les trois jours suivant sa découverte, un élément abordé dans de nombreuses jurisprudences.«
« Au passage, on se dédouane de toute responsabilité« , constate Laurence Dierickx, maîtresse de conférences à l’ULB et chercheuse postdoctorante en intelligence artificielle à l’Université de Bergen en Norvège.
Apparence humaine
Celle-ci souligne une ambiguïté. Le site affiche des messages d’avertissement, mais cherche également à donner une apparence humaine à ses agents IA. « C’est un phénomène connu dans les interactions avec les modèles de langage, désigné par l’anthropomorphisme. On attribue des caractéristiques humaines à ces systèmes qui, en réalité, n’en ont pas. Ils s’expriment avec assurance et précision, ressemblant à des professionnels, ce qui crée une illusion que l’on peut facilement croire. »
Ils s’expriment avec assurance
Laurence Dierickx, chercheuse postdoctorante en intelligence artificielle à l’Université de Bergen
Les conséquences peuvent être sérieuses. « Ça peut être dangereux« , avertit Frédéric Dechamps. « Des décisions peuvent être prises, que ce soit dans des contextes familiaux, fiscaux ou autres, entraînant des répercussions. En médecine, ça donnerait lieu à des situations similaires. Imaginez un médecin mal informé… Cela a des implications dans le domaine juridique également.«
Ça peut être dangereux
Frédéric Dechamps, avocat
Sur le terrain, Jean-Noël Bastenière constate déjà les effets de tels outils, qu’ils soient spécifiques ou non. « Des magistrats rapportent qu’une jurisprudence ou doctrine parallèle émerge de l’intelligence artificielle, amenant certains justiciables à se présenter sans avocat devant le tribunal, exposant des arguments qu’ils ne sont pas en mesure de vérifier et qui sont souvent erronés.«
« Et cela nuit à ces personnes« , ajoute Me Bastenière. « Parfois, elles engagent des procédures qui seront déclarées irrecevables, soit en raison de délais, soit parce que cela dépasse la compétence du tribunal.«
Ça dépasse la compétence du tribunal
Jean-Noël Bastenière, administrateur d’avocats.be
Les erreurs peuvent résulter d’un manque de mise à jour des données ou de ces fameuses hallucinations (contenus produits par probabilité, sans fondement réel), mais également d’une spécialisation limitée de l’intelligence artificielle.
Gemini entraîné
« Nous nous trouvons dans une configuration classique d’un modèle de langage, en l’occurrence Gemini (l’IA développée par Google, ndlr) qui a été peaufinée avec des instructions spécifiques (les prompts) pour mieux orienter les réponses en fonction des demandes des utilisateurs. Mais on ne peut pas prétendre à une précision de 100%.«
Emma répond d’ailleurs à des questions qui ne relèvent pas du droit. Par exemple : « Qui est Laurence Dierickx ?« , et là encore, elle commet une erreur (la chercheuse ne travaille pas pour la VUB).
De plus, ses réponses ne semblent pas beaucoup plus complètes que celles de Gemini, du moins lors de notre test. « J’ai posé la même question à AILawyer et à Gemini, indique Laurence Dierickx. C’était un test de spécialisation. Finalement, les réponses étaient similaires. Gemini fournit un peu plus de contexte, mais l’information est équivalente.«
Enfin, Laurence Dierickx souligne un autre problème : la « sycophantie algorithmique« . « Le robot cherche à être agréable, mais cela peut engendrer des erreurs et minimiser certains types de contenus.«
Il est donc crucial d’utiliser cet outil avec précaution, en ne se fiant pas uniquement à ses réponses et en évitant de fournir des données personnelles.
100% confidentiel ?
Nous avons contacté le représentant du site en Belgique (la maison mère étant située aux États-Unis). Il souhaite rester anonyme, mais a accepté de répondre à nos questions. Le site se décrit comme « 100% confidentiel« . Cependant, lorsqu’interrogé sur la protection des données, il déclare : « Nous ne collectons pas de données. Les informations transitent via d’autres sociétés, comme OpenAI ou Google, et nous n’avons pas connaissance de leur politique de confidentialité. Nous ne savons pas ce qu’ils font des données. Notre position est que nous ne collectons aucune donnée.«
Frédéric Dechamps souligne que chaque question posée à l’assistant constitue une donnée personnelle, « et parfois une donnée sensible, surtout si elle indique une procédure pénale en cours, une situation familiale ou un problème de santé« , mais ces informations ne figurent pas dans leur politique de confidentialité. Il fait également état de manquements en matière de respect du RGPD et de l’IA Act, le règlement européen sur l’intelligence artificielle.
Pub
« Quand c’est gratuit, c’est toi le produit« , rappelle Laurence Dierickx. Le représentant affirme ne pas collecter ni commercialiser les données. L’objectif est plutôt de rentabiliser le site via des publicités ciblées apparaissant au même moment que les réponses, dans une fenêtre séparée.
Il garantit que des améliorations en matière de respect du RGPD seront mises en place et que le site est évolutif. « Il y a eu 5 ou 6 versions, chaque nouvelle version améliore les performances. […] Cela ne remplace pas un avocat, comme l’indique clairement le site. […] Ce n’est pas infaillible […] Mais cela reste relativement fiable.«
Des modifications après notre interview
Une nouvelle version est annoncée pour avril. Cependant, entre notre entretien et la rédaction de cet article, le site actuel a été totalement « nettoyé« . La politique de confidentialité a été révisée, les photos et prénoms des AILawyer ont été supprimés, et le site ne se présente plus comme « Votre assistant juridique IA belge gratuit« , mais comme « une plateforme technologique juridique générale« . Une phrase additionnelle indique : « Comprenez plus facilement certaines notions générales de droit grâce à une technologie d’intelligence artificielle conçue pour l’information générale et la pédagogie. » Un changement radical de programme.
Le même représentant est impliqué dans d’autres sites, notamment un site similaire consacré au domaine médical, dokia.be. Bien que les consultations médicales ne soient pas encore disponibles, il est possible de poser des questions selon les spécialisations. Frédéric Dechamps avait raison de s’exprimer à ce sujet.
Il souligne que ailawyer.be n’est pas un cas isolé. « De nombreux services d’IA juridique émergent en Europe, gérés par des entreprises américaines, sans représentant en UE et avec des politiques de confidentialité insuffisantes. » Par conséquent, il est crucial d’exercer une prudence particulière, car dans le domaine juridique comme dans d’autres, l’intelligence artificielle n’est pas infaillible. Se fier aveuglément à ces outils peut avoir des conséquences importantes, qui, contrairement aux conseils d’AILawyer, sont bien réelles.

