Intelligence artificielle : un scénario post-apocalyptique est-il proche ?

Intelligence artificielle : un scénario post-apocalyptique est-il proche ?

 

par: Zhandra Flores

Publié :

Le décollage de ces technologies a placé l’humanité devant un carrefour éthique et technopolitique sans précédent.

Intelligence artificielle : un scénario post-apocalyptique est-il proche ?

Image illustrative Image créée par l’intelligence artificielle

 

La massification de l’intelligence artificielle (IA) s’est accompagnée de beaucoup d’enthousiasme, mais aussi de nombreuses interrogations et craintes quant aux effets de cette technologie sur la vie quotidienne des gens.

Les plus optimistes affirment que les processus pour lesquels il faut aujourd'hui investir beaucoup de temps seront accélérés, que le terrain sera préparé pour des décisions plus objectives et que son utilisation intensive pourrait aider à trouver des réponses aux grandes questions qui se posent. des solutions pour des décennies ou des siècles, y compris la guérison de maladies mortelles ou de problèmes scientifiques très complexes.

S'il est vrai que l'IA pourrait offrir toutes ces possibilités, il est également vrai que son émergence a alimenté le débat sur des questions telles que la collecte massive de données auprès des internautes sans leur consentement , la reproduction de préjugés historiques à motivation politique et a contribué à la dévalorisation de l’esprit critique, ainsi qu’à la falsification de la vérité sur les événements controversés.

Il n'est pas encore possible d'évaluer l'ampleur réelle de ces transformations au sein des sociétés, mais il a déjà été démontré qu'elles ont touché des questions aussi fondamentales que les relations interpersonnelles, le marché du travail et les processus d'enseignement-apprentissage. encore plus dans les années à venir.

 

Ainsi, dans les professions dans lesquelles on assumait jusqu'à présent la primauté absolue de l'homme, comme le journalisme ou l'écriture à des fins littéraires, elles sont inévitablement imprégnées de ces outils, tandis que les auteurs et les propriétaires de médias sont contraints, à tout le moins, de jouer sur un échiquier. avec d'autres règles , ce qui pourrait même mettre en suspens ce qui était jusqu'à présent un modèle d'entreprise lucratif.

En revanche, dans cette équation, les États nationaux, les entités multilatérales et les universités ont été relégués par rapport aux géants technologiques , qui contrôlent aujourd’hui les systèmes basés sur l’IA en dehors de toute réglementation ou contrepoids.

Trois étapes : où en sommes-nous ?

Les experts ont identifié trois étapes dans le développement de l'IA , dont les différences se définissent par la capacité à imiter – ou à surpasser – la cognition humaine. Le premier, connu sous le nom d'ANI, pour son acronyme en anglais, fait partie de la vie de millions de personnes depuis plus d'une décennie et demie à travers leurs smartphones, leurs moteurs de recherche Internet, leurs jeux en ligne et leurs assistants électroniques comme Siri ou Alexa.

En termes simples, ce sont des robots spécialisés dans une tâche , capables d’accomplir ces tâches mieux qu’un être humain. Ces IA prennent en charge des problématiques aussi variées que les algorithmes de recherche Google, les playlists audio et vidéo personnalisées dans diverses applications ou la géolocalisation via GPS.

Malgré les différences apparentes, des « chatbots » tels que ChatGPT d'OpenIA, Google Brain ou Copilot de Microsoft font également partie de cette liste. Les réponses qu'ils proposent aux utilisateurs sont basées sur une analyse littérale de l'information qui circule sur Internet sur les sujets, bien que selon les limites imposées par ses développeurs ; Autrement dit, ils ne peuvent pas penser ou prendre des décisions autonomes .

 

C'est précisément cet aspect qui, pour les experts, définit la limite entre l'ANI ou IA « faible » et le niveau suivant : l'IA générale (AGI) ou IA « forte », où les machines acquerraient la capacité cognitive des êtres humains et, au moins en théorie, ils seraient capables d’accomplir n’importe quelle tâche .

Cette époque peut paraître lointaine, mais la vérité est qu’elle est plus proche qu’il n’y paraît et des applications comme ChatGPT ont rendu cette proximité transparente, se révélant comme une sorte d’interface de transition entre l’ANI et l’AGI.

Ce n’est pas le pire avenir possible. La troisième phase, qui n'existe qu'à titre de préfiguration, est ce que l'on appelle la superintelligence artificielle (ASI), dans laquelle les machines seraient capables non seulement d'accomplir n'importe quelle tâche humaine, mais aussi de penser par elles-mêmes ; Autrement dit, l’IA surpasserait même le plus brillant de tous les esprits humains.

Une alliance entre le Massachusetts Institute of Technology (MIT), l’Université de Californie (États-Unis) et l’entreprise technologique Aizip Inc. a déjà permis la création d’une IA capable de générer d’autres modèles d’intelligence artificielle sans l’intervention d’êtres humains. l'homme, ce qui a ouvert une autre porte inquiétante : il est possible que les objets développent des mécanismes d'apprentissage autonomes qui les rendent plus intelligents.

Image d’illustration.PhonlamaiPhoto / Gettyimages.ru

Un panel d'informaticiens interrogés par BBC Mundo l'année dernière a convenu que même si les systèmes basés sur l'IA ont mis des décennies à se développer jusqu'à leur état actuel, la transition vers la superintelligence artificielle ou ASI sera réalisée beaucoup plus rapidement et sera surmontée avec le développement de la cognition humaine . y compris dans des domaines aussi spécifiques que la créativité ou les compétences sociales.

"C'est quelque chose auquel nous devons être très prudents et nous devons être extrêmement proactifs en termes de gouvernance. Pourquoi ? La limite chez les humains réside dans l'évolutivité de notre intelligence. Pour être ingénieur, il faut beaucoup étudier, "Etre infirmier, être avocat, cela prend beaucoup de temps. Le problème avec l'IA généralisée, c'est qu'elle est immédiatement évolutive", a déclaré Carlos Ignacio Gutiérrez, rattaché à l'Institut Future of Live.

A ce sujet, le magnat sud-africain Elon Musk a estimé que l'IA "représente l'une des plus grandes menaces" pour l'humanité. "Pour la première fois, nous nous trouvons dans une situation où nous avons quelque chose qui sera bien plus intelligent que l'humain le plus intelligent", a déclaré l'homme d'affaires lors d'une réunion sur la sécurité de l'IA organisée au Royaume-Uni début novembre dernier.

De même, Musk a prédit que l’IA serait capable de surpasser la cognition humaine d’ici cinq ans seulement . "Pour moi, il n'est pas clair si nous pouvons contrôler une telle chose, mais je pense que nous pouvons espérer l'orienter dans une direction qui soit bénéfique pour l'humanité", a-t-il noté.

Des dangers en devenir

En mars 2023, quelque 1 000 spécialistes et propriétaires de grandes entreprises technologiques ont demandé publiquement à tous les développeurs d’IA de suspendre immédiatement « pendant au moins six mois » la « formation de systèmes d’IA plus puissants que GPT-4 », base de l’apprentissage de ChatGPT.

De gauche De gauche à droite : Bill Gates, Steve Wozniak et Elon Musk. Jamie McCarthy / Getty Images pour la Fondation Bill & Melinda Gates / Justin Sullivan / Andreas Rentz / Gettyimages.ru

 

"Les systèmes d'IA dotés d'une intelligence humaine et compétitive peuvent présenter de graves risques pour la société et l'humanité , comme l'ont démontré des recherches approfondies et reconnus par les principaux laboratoires d'IA", lit-on dans la lettre, signée par des poids lourds de l'industrie comme Elon Musk, Steve Wozniak et Bill Gates.

Cette position n'est pas unanime . Gates lui-même doute de l’efficacité de ces retards dans le développement général de l’IA et exhorte plutôt les gouvernements et les entreprises à relever les défis.

"Je ne pense pas que demander à un groupe particulier de faire une pause résoudra les défis. Il est clair que ces choses présentent d'énormes avantages (…). Ce que nous devons faire, c'est identifier les domaines les plus compliqués", a affirmé le fondateur de Microsoft dans une interview accordée à Microsoft. à Reuters en avril 2023.

Le sujet a également été abordé lors de la dernière édition du Forum de Davos , où se réunit chaque année une bonne partie de l'élite politique et économique mondiale. Pour l'occasion, était invité Sam Altman, PDG d'OpenIA, qui a profité de la scène pour promouvoir les bénéfices de l'IA et écarter les risques et les avertissements qui circulent dans les milieux académiques et l'opinion publique.

https://actualidad.rt.com/actualidad/499066-inteligencia-artificial-cerca-escenario-postapocaliptico