La conspiration de « l’Internet mort » prend de l’ampleur avec l’émergence de contenus générés par l’IA.

 La conspiration de « l’Internet mort » prend de l’ampleur avec l’émergence de contenus générés par l’IA.

Le directeur d'OpenAI craint désormais pour le réseau créé par des programmes automatisés qui facilitent la manipulation et la désinformation.

Le PDG d'OpenAI, Sam Altman, s'exprime lors d'une réunion du groupe de travail de la Maison Blanche sur l'éducation à l'intelligence artificielle (IA) dans la salle Est de la Maison Blanche à Washington.

Par Raul Limon, El Pais, Espagne *

« Je l'avais désiré avec une ferveur incommensurable ; mais maintenant qu'il était atteint, la beauté du rêve avait disparu, et le dégoût et l'horreur m'envahissaient. » Telle est sa réaction à sa création du Dr Frankenstein dans l'œuvre de Mary Shelley de 1818, connu sous le nom de famille du personnage de la scientifique, ou Le Prométhée moderne . Sam Altman, PDG d'OpenAI, a connu un vertige similaire. Le PDG de l'entreprise à l'origine de l'un des développements les plus sophistiqués de l'intelligence artificielle (IA) commence à croire à la théorie de « l'Internet mort » , selon laquelle le contenu généré automatiquement surpassera celui généré par les humains, multipliant ainsi les dangers de manipulation, de désinformation et de conditionnement comportemental intentionnel.

 

Le message concis d'Altman a suscité des inquiétudes : « Je n'ai jamais pris la théorie de l'Internet mort au sérieux, mais il semble qu'il existe désormais de nombreux comptes Twitter [ahora X y propiedad de Elon Musk] gérés par LLM », les modèles de langage de l'IA.

Aaron Harris, directeur technique mondial de Sage, multinationale spécialisée dans les applications d'IA , se montre prudent quant à la dénomination du phénomène, même s'il ne nie pas le processus : « Je ne sais pas si je l'appellerais "l'Internet mort", mais il est certain qu'il évolue rapidement. L'essor du contenu automatisé et des interactions pilotées par des robots [programas informáticos que imitan el comportamiento humano] rend de plus en plus difficile de distinguer l'authentique du bruit. La question est de savoir si nous nous laissons submerger par ce bruit ou si nous nous concentrons sur la conception de technologies qui rétablissent la confiance. Ce qui compte désormais, c'est la manière dont nous filtrons, vérifions et présentons les informations fiables. »

La référence spécifique d'Altman aux réseaux sociaux n'est pas gratuite. « C'est d'une importance vitale, car les médias sociaux sont désormais la principale source d'information pour de nombreux utilisateurs à travers le monde », écrivent Jake Renzella, directeur du département informatique, et Vlada Rozova, chercheuse en apprentissage automatique à l'Université de Nouvelle-Galles du Sud (UNSW Sydney) et à l'Université de Melbourne, respectivement, dans un article publié dans The Conversation .

« À mesure que ces comptes gérés par l'IA gagnent en abonnés (beaucoup de faux, certains de vrais), ce nombre élevé les légitime auprès des utilisateurs réels. Cela signifie qu'une multitude de comptes se crée. Il existe déjà des preuves solides que les réseaux sociaux sont manipulés par ces robots pour influencer l'opinion publique par la désinformation, et ce depuis des années », soulignent les chercheurs australiens, reprenant l'avertissement d'Altman. Une étude de la société de sécurité Imperva, publiée il y a deux ans, estimait déjà que « près de la moitié du trafic Internet était généré par des robots ».

Il existe déjà des preuves solides que les médias sociaux sont manipulés par des robots [programas informáticos que imitan el comportamiento humano] pour influencer l’opinion publique avec de la désinformation, et cela se produit depuis des années.

Jake Renzella et Vlada Rozova, chercheurs des universités de Sydney et de Melbourne

Ces bots sont non seulement capables de créer du contenu unique, mais aussi de reproduire la formule de sa propagation virale massive. Selon une nouvelle étude publiée dans Physical Review Letters et menée par des chercheurs de l'Université du Vermont et du Santa Fe Institute, « tout ce qui se propage – qu'il s'agisse d'une croyance, d'une blague ou d'un virus – évolue en temps réel et gagne en puissance à mesure qu'il se propage », selon un modèle mathématique de « cascades auto [ Self-Reinforcing Cascades ] ».

Selon cette recherche, ce qui est disséminé mute en se propageant, ce qui favorise sa propagation, selon un modèle similaire à celui des incendies de sixième génération, impossibles à éteindre avec des moyens conventionnels. « Nous nous sommes en partie inspirés des feux de forêt : ils peuvent devenir plus intenses lorsqu’ils brûlent à travers des forêts denses et plus faibles lorsqu’ils traversent des clairières. Le même principe s’applique aux informations, aux canulars ou aux maladies. Ils peuvent s’intensifier ou s’affaiblir selon les conditions », explique Sid Redner, physicien, professeur à l’Institut Santa Fe et coauteur de l’article.

Juniper Lovato, informaticienne et co-auteure de l'étude, estime que ces travaux permettent de mieux comprendre comment se forment les croyances, la désinformation et la contagion sociale. « Cela nous donne une base théorique pour explorer comment les histoires et les récits évoluent et se propagent sur les réseaux », explique-t-elle.

Les chercheurs avertissent que les risques de contenu viral favorisant la manipulation ou la désinformation sont multipliés par les outils d’intelligence artificielle et exigent que les utilisateurs soient plus conscients des dangers des assistants et agents IA.

Parce que ces outils d’IA innovants savent non seulement créer du contenu et le rendre viral, mais aussi créer un impact personnel et efficace avec les informations qu’ils recueillent à partir des interactions des utilisateurs.

L'article « Big Help or Big Brother ? Auditing Tracking, Profiling, and Personalization in Generative AI Assistants », présenté au symposium sur la sécurité USENIX à Seattle, examine la vulnérabilité des utilisateurs à l'influence.

« En ce qui concerne la sensibilité à l'influence des médias sociaux, il ne s'agit pas seulement de qui vous êtes, mais de votre position dans un réseau et de vos connexions », explique Luca Luceri, chercheur à l'Université de Californie du Sud et co-auteur de l'étude.

« Paradoxe de la susceptibilité »

En ce sens, l'étude reflète un phénomène appelé « paradoxe de la susceptibilité », qui suppose « un modèle selon lequel les amis des utilisateurs sont, en moyenne, plus facilement influençables que les titulaires de compte eux-mêmes ». Selon l'étude, ce comportement « peut expliquer comment les comportements, les tendances et les idées deviennent populaires, et pourquoi certains segments d'Internet sont plus vulnérables que d'autres à l'influence ».

Les personnes qui publient parce que d’autres le font appartiennent souvent à des cercles très soudés qui partagent un comportement similaire, ce qui suggère, selon l’étude, que « l’influence sociale opère non seulement à travers des échanges directs entre individus, mais est également façonnée et limitée par la structure du réseau ».

Il est ainsi possible de prédire qui est le plus susceptible de partager du contenu, une mine d'or pour la viralisation automatique basée sur les données personnelles collectées par l'IA. « Dans de nombreux cas, connaître le comportement des amis d'un utilisateur suffit à estimer son comportement », prévient l'étude.

La solution aux effets de cette intelligence artificielle sur Internet, créée par l'homme mais qui commence à dominer, ne se limite pas à la réglementation. Selon « The Ethics of Advanced AI Assistants » , un ouvrage complexe et exhaustif de Google Deepmind avec une vingtaine de chercheurs et d'universités, le défi réside dans une relation tétraédrique. entre l'assistant IA, l'utilisateur, le développeur et la société pour développer « un ensemble approprié de valeurs ou d'instructions pour fonctionner en toute sécurité dans le monde et produire des résultats largement bénéfiques ».

Les travaux des chercheurs développent, à la manière des lois d'Asimov pour la robotique, une série de commandements pour éviter une IA étrangère aux principes moraux qui peuvent être résumés comme suit : elle ne manipulera pas l'utilisateur pour favoriser les intérêts de l'IA (de ses développeurs) ou générer un coût social (comme la désinformation), elle ne permettra pas à l'utilisateur ou aux développeurs d'appliquer des stratégies négatives pour la société (domination, conditionnement ou discrédit institutionnel) et elle ne limitera pas indûment la liberté de l'utilisateur.

La question n’est pas nécessairement de savoir si le contenu provient d’un humain ou d’une IA, mais de savoir si quelqu’un en est responsable.

Aaron Harris, directeur technique de Sega

Aaron Harris, directeur technique de Sega, estime qu'un Internet éthique est possible, « mais cela ne se fera pas par hasard », affirme-t-il. « La transparence et la responsabilité doivent déterminer la conception et la réglementation de l'IA. Les entreprises qui la développent doivent s'assurer que leurs résultats sont vérifiables et explicables, afin que chacun comprenne d'où proviennent les informations et pourquoi elles sont recommandées. En finance, par exemple, l'exactitude n'est pas facultative et les erreurs ont de réelles conséquences. Le même principe s'applique en ligne : une formation responsable, un étiquetage clair et la possibilité de remettre en question les résultats peuvent faire de l'IA un élément d'un Internet plus éthique et plus fiable. »

Harris prône la protection de l'« Internet humain », « surtout maintenant que de plus en plus de contenu est créé par des robots », mais pas au prix de remettre en cause les progrès réalisés. « Je ne pense pas que la solution soit de revenir à l'ère pré-IA et de tenter de restreindre ou d'éliminer complètement le contenu qu'elle a généré. Il fait déjà partie intégrante de nos modes de vie et de travail, et il peut apporter une réelle valeur ajoutée s'il est utilisé de manière responsable. La question est de savoir si quelqu'un est responsable de ce contenu. C'est le principe que toutes les entreprises devraient suivre : l'IA doit améliorer les capacités humaines, et non les remplacer. Un Internet plus humain est encore possible, mais seulement si nous gardons les besoins des individus au centre et si nous rendons la responsabilité non négociable. »

Raúl Limón

Raúl Limón

Diplômé en Sciences de l'Information de l'Université Complutense et titulaire d'un master en Journalisme Numérique de l'Université Autonome de Madrid, il a suivi une formation aux États-Unis et est rédacteur à la rubrique Sciences. Il collabore à la télévision, a écrit deux livres (dont l'un a remporté le Prix Lorca) et a reçu le prix « Diffusion à l'ère numérique ».