IAÂ : Deux études révèlent l’influence des agents conversationnels sur les électeurs.
Les assistants conversationnels d’intelligence artificielle peuvent faire évoluer l’opinion politique d’un électeur de plusieurs points, même lorsqu’ils citent des éléments inexacts. Environ un répondant sur dix au Canada et en Pologne a changé d’avis sur pour qui voterait si l’élection avait lieu ce jour-là.
Les assistants conversationnels d’intelligence artificielle (IA) peuvent se révéler remarquablement efficaces pour influencer l’opinion politique d’un électeur, parfois de plusieurs points, même lorsqu’ils avancent des éléments inexactes. C’est ce que révèlent deux études majeures publiées ce jeudi 4 décembre dans les revues *Science* et *Nature*, qui mettent en garde contre la puissance persuasive de ces modèles d’IA générative.
Les chercheurs ont réalisé des expérimentations aux États-Unis, au Royaume-Uni, au Canada et en Pologne. Les participants devaient d’abord évaluer leur préférence entre deux candidats sur une échelle de 0 à 100. Ensuite, après une discussion avec un *chatbot* conçu pour les convaincre, ils étaient invités à réévaluer leur préférence initiale. Les résultats montrent une évolution significative des opinions. La capacité de l’IA à modifier une opinion politique pourrait devenir un enjeu crucial pour les démocraties, surtout durant les campagnes électorales. Les auteurs des études recommandent de mettre en place des garde-fous pour éviter toute forme de manipulation.
**1 personne sur 10 change d’avis**
Aux États-Unis, des électeurs soutenant Donald Trump ont vu leur appréciation de sa rivale démocrate Kamala Harris augmenter de quatre points. Au Canada et en Pologne, les variations ont atteint jusqu’à dix points chez certains sondés, notamment parmi les électeurs d’opposition interrogés avant les élections de 2025.
David Rand, professeur à l’université Cornell et coauteur des études, indique que ces effets peuvent influencer le résultat d’une élection. « Environ un répondant sur dix au Canada et en Pologne a changé d’avis lorsqu’on leur demandait pour qui ils voteraient si l’élection avait lieu ce jour-là », note-t-il, tout en précisant que « les intentions de vote ne correspondent pas toujours aux votes réels » dans l’urne. Aux États-Unis, ce ratio demeure significatif, avec environ un sur vingt-cinq.
**Persuasif et argumenté**
Les chatbots les plus convaincants adoptent un ton très poli et avancent des « preuves », même lorsque celles-ci peuvent être erronées. En revanche, quand ils sont programmés pour ne pas citer de faits, leur pouvoir d’influence diminue considérablement.
Un suivi effectué un mois après les échanges montre que l’effet persuasif s’atténue, mais reste présent : il est divisé par deux au Royaume-Uni et par trois aux États-Unis. « Toute preuve d’un effet persistant un mois plus tard est relativement rare en sciences sociales », souligne David Rand.

