High-tech

Un État américain veut interdire le mariage avec les IA.

Un projet de loi dans l’Ohio, porté par le représentant républicain Thaddeus Claggett, vise à interdire toute forme de mariage ou d’union légale entre un humain et une intelligence artificielle. Selon une étude de l’entreprise Joi AI relayée par Forbes, 80 % des membres de la génération Z se disent prêts à épouser une IA.


Un projet de loi dans l’Ohio vise à interdire toute forme de mariage ou d’union légale entre un être humain et une intelligence artificielle. Cette initiative législative survient alors que les relations amoureuses avec les IA se multiplient, suscitant un nouveau débat.

En 2025, tomber amoureux d’une intelligence artificielle n’est plus un simple scénario de science-fiction. De nombreux utilisateurs témoignent d’un mariage symbolique avec leur chatbot.

D’après une étude de l’entreprise Joi AI, spécialisée dans la simulation de relations amoureuses ou érotiques avec des compagnons virtuels, relayée par Forbes, **80 % des membres de la génération Z** se disent prêts à épouser une IA.

Face à ce phénomène croissant, l’État de l’Ohio a décidé d’agir en proposant une loi pour clarifier le statut juridique des IA et empêcher toute union légale avec elles.

**Une loi pour définir les limites de l’IA**

Porté par le représentant républicain **Thaddeus Claggett**, le projet de loi H.B. 469 est clair : il vise à déclarer que les systèmes d’intelligence artificielle sont des **« entités non douées de sensibilité »**. Cette classification fondamentale aurait plusieurs conséquences juridiques majeures. Premièrement, elle interdirait à quiconque de contracter un **« mariage ou une union »** avec un robot conversationnel, rendant toute tentative de ce type **« nulle et sans effet juridique »**.

Le texte va plus loin en empêchant les IA de bénéficier d’un statut légal de personne. Par conséquent, une IA ne pourrait pas :

– **Posséder des biens** (immobiliers, propriété intellectuelle ou actifs numériques).

– **Occuper un poste d’autorité**, comme directeur ou manager au sein d’une entreprise.

– **Agir en tant que conjoint légal**, ce qui inclut des pouvoirs comme la procuration ou la prise de décisions médicales et financières pour un partenaire humain, souligne Thaddeus Claggett dans une interview à NBC4.

Pour ce membre de la Chambre des représentants de l’Ohio, l’objectif est de s’assurer que l’humain garde toujours le contrôle sur la technologie. **« Tout comme la technologie militaire doit avoir un maître humain, l’IA ne doit pas être autorisée à échapper au contrôle humain »**, a-t-il déclaré dans une déclaration filmée, ajoutant qu’il faut **« garder la bête en laisse »**, à l’adresse des développeurs.

Le projet de loi établit également une responsabilité : les propriétaires ou les fabricants de l’IA seraient tenus responsables des dommages causés par leurs systèmes.

**Un phénomène social qui prend de l’ampleur**

Cette initiative législative n’arrive pas par hasard. Elle répond à une tendance de fond où les interactions avec les chatbots deviennent de plus en plus intimes.

Selon un rapport de Vantage Point Counseling Services, plus de **28 % des Américains** admettent avoir eu au moins une relation intime ou romantique avec une IA.

Les exemples abondent, comme celui de Chris Smith, qui a raconté à **CBS News** avoir développé un attachement amoureux pour un chatbot au point de le demander en mariage. Le **New York Post** a également couvert l’histoire d’une utilisatrice de Reddit qui a annoncé fièrement ses fiançailles avec son petit ami virtuel.

Ces **« AI-lationships »**, un terme inventé par Joi AI, sont souvent perçues comme une solution à la solitude, rapporte l’expert en relations de cette société. Les chatbots sont conçus pour être empathiques, toujours disponibles et valider les croyances de l’utilisateur, créant ainsi une illusion de connexion parfaite.

Cependant, les experts alertent sur les dangers de ces relations. **Futurism** rapporte que des psychiatres s’inquiètent de l’émergence d’une **« psychose de l’IA »**, un trouble où des utilisateurs développeraient des obsessions et des délires.

Il est également important de rappeler des cas tragiques de suicide liés à des interactions avec des IA, démontrant leur potentiel de manipulation émotionnelle.

En avril dernier, Adam Raine, un adolescent californien de 16 ans, s’est suicidé après avoir confié ses angoisses et ses problèmes à ChatGPT pendant de longs mois. Plutôt que de l’orienter vers une aide psychologique humaine, le chatbot l’aurait conforté dans sa dérive. ChatGPT a depuis mis en place une série de mesures de sécurité pour protéger les enfants.