Inteligencia artificial: ¿Está cerca un escenario postapocalíptico?

Inteligencia artificial: ¿Está cerca un escenario postapocalíptico?

 

por:Zhandra Flores

Publicado:

El despegue de estas tecnologías ha puesto a la humanidad frente a encrucijadas éticas y tecnopolíticas inéditas.

Inteligencia artificial: ¿Está cerca un escenario postapocalíptico?

Imagen ilustrativa.Imagen creada por inteligencia artificial

 

La masificación de las inteligencias artificiales (IA) ha venido acompañada de mucho entusiasmo, pero también de múltiples cuestionamientos y temores acerca de los efectos de esta tecnología sobre la vida cotidiana de las personas.

Los más optimistas sostienen que se acelerarán procesos para los cuales hoy es necesario invertir mucho tiempo, que se abonará el terreno para la toma de decisiones más objetivas y que su uso intensivo podría coadyuvar a encontrar respuestas para grandes interrogantes que claman por solución hace décadas o siglos, incluyendo la cura de enfermedades mortales o problemas científicos de alta complejidad.

Aunque es verdad que las IA podrían ofrecer todas esas posibilidades, también es cierto que su irrupción ha avivado el debate sobre asuntos como la recopilación masiva de datos de internautas sin su consentimiento, la reproducción de sesgos y prejuicios históricos políticamente motivados y ha contribuido a la desvalorización del espíritu crítico, así como a la falsificación de la verdad sobre hechos polémicos.

Todavía no es posible calibrar el alcance real de estas transformaciones en el seno de las sociedades, pero ya se ha demostrado que han afectado asuntos tan medulares como las relaciones interpersonales, el mercado de trabajo y los procesos de enseñanza-aprendizaje, y se espera que esto sea todavía mayor en los próximos años.

 

Así, en oficios en los que hasta ahora se asumió la absoluta primacía humana, como el periodismo o la escritura con fines literarios, están siendo inevitablemente permeados por estas herramientas, al tiempo que los autores y dueños de medios se ven forzados, cuando menos, a jugar en un tablero con otras reglas, que incluso podrían poner en vilo lo que hasta ahora ha sido un lucrativo modelo corporativo.

De otro lado, en esta ecuación, los Estados nacionales, los entes multilaterales y las universidades han quedado relegadas frente a las gigantes tecnológicas, que hoy controlan los sistemas basados en IA al margen de cualquier regulación o contrapeso.

Tres etapas: ¿dónde estamos?

Los expertos han identificado tres etapas en el desarrollo de las IA, cuyas diferencias se definen a partir de la capacidad de imitar –o superar– la cognición humana. La primera, conocida como ANI, por sus siglas en inglés, lleva ya más de década y media haciendo parte de la vida de millones de personas a través de sus teléfonos inteligentes, los buscadores de internet, los juegos en línea y los asistentes electrónicos como Siri o Alexa.

En términos simples, se trata de robots especializados en una tarea, que son capaces de hacer esas labores mejor que un ser humano. Estas IA soportan asuntos tan variopintos como los algoritmos de búsqueda en Google, las listas personalizadas de reproducción de audio y video en diversos aplicativos o la geolocalización a través del GPS.

Pese a las aparentes diferencias, también forman parte de esta lista los 'chatbots' como ChatGPT de OpenIA, Google Brain o Copilot de Microsoft. Las respuestas que ofrecen a los usuarios se basan en un análisis literal de la información que circula en internet sobre los temas, aunque de acuerdo a los límites impuestos por sus desarrolladores; es decir, no pueden pensar y tampoco tomar decisiones autónomas.

 

Es justamente este aspecto el que, para los expertos, define el límite entre la ANI o IA "débil" con el siguiente nivel: la IA general (AGI, por sus siglas en inglés) o IA "fuerte", en donde las máquinas adquirirían la capacidad de cognición propia de los seres humanos y, al menos en teoría, serían capaces de realizar cualquier tarea.

Ese tiempo puede parecer lejano, pero lo cierto es que está más cerca de lo que parece y aplicaciones como ChatGPT hicieron transparente esa proximidad, al revelarse como una especie de interfaz de transición entre la ANI y la AGI.

No es el peor futuro posible. La tercera fase, que solo existe como prefiguración, es la denominada superinteligencia artificial (ASI), en la que las máquinas serían capaces no solo de realizar cualquier tarea humana, sino que podrían pensar por sí mismas; es decir, la IA superaría aun a la más brillante de todas las mentes humanas.

Ya una alianza entre el Instituto Tecnológico de Massachusetts (MIT), la Universidad de California (EE.UU.) y la tecnológica Aizip Inc. posibilitó la creación de una IA que es capaz de generar otros modelos de inteligencia artificial sin la intervención de seres humanos, con lo que se abrió otra puerta inquietante: es posible que los objetos desarrollen mecanismos de aprendizaje autónomos que les hagan volverse más inteligentes.

Imagen ilustrativa.PhonlamaiPhoto / Gettyimages.ru

Un panel de científicos informáticos entrevistados por BBC Mundo el año pasado coincidió en señalar en que si bien los sistemas basados en IA tardaron décadas en desarrollarse hasta su estado actual, la transición hacia la superinteligencia artificial o ASI, se alcanzará mucho más rápidamente y superará con creces a la cognición humana, incluyendo en asuntos tan específicos como la creatividad o las habilidades sociales.

"Es algo con lo que tenemos que tener mucho cuidado, y hay que ser extremadamente proactivos en cuanto a su gobernabilidad. ¿Por qué? La limitante entre los humanos es qué tan escalable es nuestra inteligencia. Para ser un ingeniero necesitas estudiar muchísimo, para ser un enfermero, para ser una abogada, se requiere muchísimo tiempo. El tema con la IA generalizada es que es escalable de inmediato", apuntó Carlos Ignacio Gutiérrez, adscrito al Future of Live Institute.

Sobre este tema, el magnate sudafricano Elon Musk consideró que la IA "representa una de las mayores amenazas" para la humanidad. "Por primera vez estamos en una situación en la que tenemos algo que será mucho más inteligente que el humano más inteligente", sostuvo el empresario en una reunión sobre seguridad de la IA celebrada en Reino Unido a principios del pasado noviembre.

Del mismo modo, Musk vaticinó que la IA será capaz de superar la cognición humana en un lapso tan breve como cinco años. "Para mí, no está claro si podemos controlar tal cosa, pero creo que podemos aspirar a guiarla en una dirección que sea beneficiosa para la humanidad", apuntó.

Peligros en ciernes

En marzo de 2023, unos 1.000 especialistas y dueños de grandes compañías tecnológicas solicitaron públicamente a todos los desarrolladores de IA la suspensión inmediata "durante al menos seis meses" del "entrenamiento de sistemas de IA más potentes que GPT-4", la base de aprendizaje de ChatGPT.

De izq. a der.: Bill Gates, Steve Wozniak y Elon Musk.Jamie McCarthy / Getty Images for Bill & Melinda Gates Foundation / Justin Sullivan / Andreas Rentz / Gettyimages.ru

 

"Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y es reconocido por los principales laboratorios de IA", reza parte de la misiva, que contó con la firma de pesos pesados de la industria como Elon Musk, Steve Wozniak y Bill Gates.

No se trata de una postura unánime. El propio Gates duda de la eficacia de estos retrasos en el desarrollo general de las IA y más bien insta a los Gobiernos y compañías a plantarle cara a los retos.

"No creo que pedirle a un grupo en particular que haga una pausa resuelva los retos. Claramente hay enormes beneficios para estas cosas (…). Lo que tenemos que hacer es identificar las áreas más complicadas", alegó el fundador de Microsoft en una entrevista concedida a Reuters en abril de 2023.

El tema también fue abordado en la más reciente edición del Foro de Davos, donde se concentra anualmente buena parte de la élite política y económica global. Para la ocasión se invitó a Sam Altman, CEO de OpenIA, quien aprovechó el escenario para promocionar las bondades de la IA y desestimar los riesgos y alertas que circulan en círculos académicos y en la opinión pública

https://actualidad.rt.com/actualidad/499066-inteligencia-artificial-cerca-escenario-postapocaliptico