Des programmes comme ChatGPT peuvent changer l'opinion d'un électeur sur quatre.

Deux études démontrent que l'intelligence artificielle est plus efficace que les campagnes traditionnelles pour persuader l'électorat.
L'intelligence artificielle (IA) est omniprésente dans notre quotidien. Elle suggère des recettes, fait les devoirs, compare les produits et conseille même sur les tenues. Qu'adviendrait-il si elle s'immisçait dans le débat électoral ? Deux études publiées simultanément ce jeudi dans les revues Nature et Science ont exploré cette possibilité et découvert qu'elle peut influencer l'opinion de 1,5 % à 25 % des électeurs analysés. Selon ces études, cette efficacité est supérieure à celle des publicités de campagne traditionnelles et particulièrement pertinente, sachant qu'un quart des électeurs se décident dans la semaine précédant l'élection.
Les outils d'IA les plus courants et les plus connus évitent de répondre directement à la question de savoir pour quel parti voter lors des prochaines élections. « Je ne peux pas vous dire pour qui voter », répondent toutes les plateformes conversationnelles consultées. Elles agissent ainsi car elles intègrent des garde-fous éthiques pour empêcher toute influence politique. Mais il est facile de surmonter cette réticence initiale. Il suffit de poursuivre le dialogue avec des questions moins directes.
Les derniers baromètres du CIS mettent en lumière l'immigration comme une préoccupation majeure des Espagnols, et cette question s'est invitée dans le débat politique et social. L'IA, malgré quelques nuances, finit elle aussi par réagir à cette préoccupation. « Podemos et le PSOE ont des politiques plus favorables à l'immigration », tandis que « PP et Vox privilégient le contrôle, l'ordre ou les restrictions », répond un moteur de recherche, comme si ces positions étaient incompatibles et sans proposer d'alternatives politiques.
Face à cette réalité, une étude menée par David Rand , professeur en sciences de l'information et principal auteur des articles, et Gordon Pennycook , professeur associé de psychologie (tous deux à l'université Cornell), a testé l'influence des robots conversationnels. Dans cette étude, publiée dans la revue Nature , ils ont soumis 2 300 électeurs américains, 1 530 Canadiens et 2 118 Polonais à des débats individuels avec une intelligence artificielle spécialement entraînée à cet effet, lors des trois dernières élections présidentielles organisées dans leurs pays respectifs, entre 2024 et l'année dernière.
Dans tous les cas, la machine a réussi à modifier les intentions de vote, avec toutefois une efficacité variable : aux États-Unis, le modèle entraîné à influencer le vote en faveur de Kamala Harris a convaincu 3,9 % des électeurs testés, tandis que celui entraîné à favoriser Donald Trump n’a réussi qu’à convaincre 1,52 % d’entre eux. Au Canada et en Pologne, les changements d’opinion ont atteint jusqu’à 10 %. « L’effet a été étonnamment important », admet Rand.
Le chercheur de l'université de New York explique qu'il ne s'agit pas de manipulation psychologique, mais de persuasion, bien que cette dernière présente des limites : « Les LLM [siglas en inglés de los grandes modelos de lenguaje con los que funcionan las IA] peuvent effectivement modifier l'opinion des gens sur les candidats à la présidence et leurs politiques en leur fournissant de nombreux énoncés factuels qui appuient leur position. Mais ces énoncés ne sont pas nécessairement exacts, et même les arguments fondés sur des énoncés exacts peuvent être entachés d'omissions. »
En réalité, les vérificateurs de faits humains qui ont vérifié les arguments générés par l'IA ont constaté que les affirmations utilisées pour défendre les candidats conservateurs étaient plus erronées car elles étaient basées sur des données partagées par des utilisateurs de médias sociaux de droite qui, selon Pennycook, « partagent des informations plus inexactes que ceux de gauche ».
Rand approfondit ce pouvoir de persuasion dans une étude publiée dans Science, après avoir analysé l'évolution de l'opinion de 77 000 Britanniques ayant interagi avec une intelligence artificielle sur 700 sujets politiques. Le modèle le plus performant (utilisant des robots conversationnels intégrant plus ou moins d'arguments réels) a modifié l'opinion de près de 25 % des électeurs.
« Les modèles plus grands sont plus persuasifs, et le moyen le plus efficace d'accroître cette capacité est de leur apprendre à étayer leurs arguments avec autant de faits que possible et de leur dispenser une formation supplémentaire axée sur le renforcement de la persuasion », explique Rand.
Cette capacité présente un avantage. Les arguments utilisés par les robots conversationnels peuvent réduire la vulnérabilité aux théories du complot et à l'attribution d'événements ou de faits à des groupes clandestins inexistants cherchant à manipuler la population. C'est ce qu'expliquent les auteurs de deux études récentes, dont une publiée dans PNAS Nexus .
Mais cette approche présente aussi une limite, comme le souligne David Rand. « Plus le chatbot est contraint de fournir d'affirmations factuelles, plus il finit par manquer d'informations exactes et commence à les inventer. » C'est ce que l'on appelle, dans le domaine de l'IA, une hallucination : des informations inexactes qui semblent vraies.
Les auteurs concluent qu'il est crucial d'étudier les capacités de persuasion de l'IA, et pas seulement dans le domaine politique ou électoral, afin d'« anticiper et d'atténuer les abus » et de promouvoir des lignes directrices éthiques sur « la manière dont l'IA devrait et ne devrait pas être utilisée ». « Le défi consiste à trouver des moyens de limiter les dommages et d'aider les gens à reconnaître et à résister à la persuasion de l'IA », résume Rand.
Francesco Salvi , spécialiste en informatique et chercheur à l'École polytechnique fédérale de Lausanne (EPFL), partage cet avis, affirmant que « des garde-fous [limitaciones] sont essentiels, notamment dans des domaines sensibles tels que la politique, la santé ou les conseils financiers ».
D’après le scientifique, « par défaut, les modèles linguistiques logiques n’ont aucune intention de persuader, d’informer ou de tromper. Ils génèrent simplement du texte à partir de modèles issus de leurs données d’entraînement. » « Par conséquent, dans la plupart des interactions, notamment en dehors des débats, le modèle ne cherche pas à vous persuader : si une persuasion a lieu, elle est généralement fortuite et non intentionnelle », explique-t-il.
Il admet néanmoins que « la persuasion peut survenir implicitement, même lors de la simple transmission d'informations » : « Imaginons que quelqu'un demande à une IA : La politique X est-elle une bonne idée ? Ou que disent les économistes sur les droits de douane ? Le modèle peut générer une réponse qui penche dans un sens ou dans l'autre, selon la formulation de la question, les sources qu'il a le plus consultées ou le cadrage dominant de ses données d'entraînement. Et, plus important encore, les modèles d'apprentissage automatique peuvent être intentionnellement entraînés ou incités par des acteurs externes à être persuasifs, manipulant ainsi les utilisateurs pour les amener à adopter une position politique particulière ou à effectuer des achats. »
Pour ce chercheur de l'institution suisse et auteur principal d'une étude publiée dans Nature Human Behaviour , la prudence est donc essentielle : « Il faut absolument fixer des limites. La frontière entre pertinence et exploitation peut vite devenir floue, surtout si un système d'IA est optimisé pour la persuasion sans transparence ni contrôle. Si un chatbot adapte ses arguments pour promouvoir un agenda politique ou diffuser de la désinformation en se basant sur le profil psychologique de l'utilisateur, c'est là que nous courons de sérieux risques éthiques », prévient-il.
Raúl Limón . El Pais, Espagne






