Inteligência artificial: um cenário pós-apocalíptico está próximo?

Inteligência artificial: um cenário pós-apocalíptico está próximo?

 

por: Zhandra Flores

Publicados:

A descolagem destas tecnologias colocou a humanidade perante uma encruzilhada ética e tecnopolítica sem precedentes.

Inteligência artificial: um cenário pós-apocalíptico está próximo?

Imagem ilustrativa Imagem criada por inteligência artificial

 

A massificação da inteligência artificial (IA) tem sido acompanhada de muito entusiasmo, mas também de muitas dúvidas e receios sobre os efeitos desta tecnologia no quotidiano das pessoas.

Os mais optimistas sustentam que serão acelerados processos nos quais hoje é necessário investir muito tempo, que estará preparado o terreno para a tomada de decisões mais objectivas e que a sua utilização intensiva poderá ajudar a encontrar respostas a grandes questões que têm clamado em busca de soluções durante décadas ou séculos, incluindo a cura de doenças mortais ou de problemas científicos altamente complexos.

Embora seja verdade que a IA poderia oferecer todas estas possibilidades, também é verdade que o seu surgimento alimentou o debate sobre questões como a recolha massiva de dados de utilizadores da Internet sem o seu consentimento , a reprodução de preconceitos e preconceitos históricos com motivação política e tem contribuiu para a desvalorização do espírito crítico, bem como para a falsificação da verdade sobre acontecimentos polêmicos.

Ainda não é possível avaliar o real alcance destas transformações nas sociedades, mas já foi demonstrado que afectaram questões centrais como as relações interpessoais, o mercado de trabalho e os processos de ensino-aprendizagem, e espera-se que isso seja ainda maior nos próximos anos.

 

Assim, nas profissões em que até agora se assumia a primazia humana absoluta, como o jornalismo ou a escrita com fins literários, estão inevitavelmente a ser permeadas por estas ferramentas, enquanto os autores e proprietários dos meios de comunicação social são forçados, no mínimo, a jogar num tabuleiro com outras regras , que poderiam até colocar em suspense o que até agora tem sido um modelo corporativo lucrativo.

Por outro lado, nesta equação, os estados nacionais, as entidades multilaterais e as universidades foram relegados em comparação com os gigantes tecnológicos , que hoje controlam os sistemas baseados em IA fora de qualquer regulação ou contrapeso.

Três etapas: onde estamos?

Os especialistas identificaram três estágios no desenvolvimento da IA , cujas diferenças são definidas pela capacidade de imitar – ou superar – a cognição humana. A primeira, conhecida como ANI, na sigla em inglês, faz parte da vida de milhões de pessoas há mais de uma década e meia através dos seus smartphones, motores de busca na Internet, jogos online e assistentes eletrónicos como Siri ou Alexa.

Em termos simples, são robôs especializados em uma tarefa , capazes de realizar essas tarefas melhor do que um ser humano. Estas IA suportam questões tão variadas como algoritmos de pesquisa do Google, listas de reprodução de áudio e vídeo personalizadas em diversas aplicações ou geolocalização através de GPS.

Apesar das aparentes diferenças, ‘chatbots’ como o ChatGPT da OpenIA, o Google Brain ou o Copilot da Microsoft também fazem parte desta lista. As respostas que oferecem aos usuários baseiam-se numa análise literal da informação que circula na Internet sobre os temas, embora de acordo com os limites impostos pelos seus desenvolvedores; Ou seja, não conseguem pensar nem tomar decisões autônomas .

 

É justamente este aspecto que, para os especialistas, define o limite entre ANI ou IA “fraca” com o próximo nível: IA geral (AGI) ou IA “forte”, onde as máquinas adquiririam a capacidade de cognição dos seres humanos e, pelo menos em teoria, eles seriam capazes de realizar qualquer tarefa .

Esse tempo pode parecer distante, mas a verdade é que está mais próximo do que parece e aplicações como o ChatGPT tornaram transparente essa proximidade, revelando-se como uma espécie de interface de transição entre a ANI e a AGI.

Não é o pior futuro possível. A terceira fase, que só existe como prefiguração, é a chamada superinteligência artificial (ASI), na qual as máquinas seriam capazes não apenas de realizar qualquer tarefa humana, mas poderiam pensar por si mesmas ; Ou seja, a IA superaria até mesmo a mais brilhante de todas as mentes humanas.

Já uma aliança entre o Instituto de Tecnologia de Massachusetts (MIT), a Universidade da Califórnia (EUA) e a empresa de tecnologia Aizip Inc. tornou possível a criação de uma IA capaz de gerar outros modelos de inteligência artificial sem a intervenção de seres humanos. humanos, o que abriu outra porta perturbadora: é possível que os objetos desenvolvam mecanismos de aprendizagem autônomos que os tornem mais inteligentes.

Imagem ilustrativa.PhonlamaiPhoto / Gettyimages.ru

Um painel de cientistas da computação entrevistados pela BBC Mundo no ano passado concordou que, embora os sistemas baseados em IA levem décadas para se desenvolverem até o estado atual, a transição para a superinteligência artificial ou ASI será alcançada muito mais rapidamente e será superada com o crescimento da cognição humana . inclusive em assuntos tão específicos como criatividade ou habilidades sociais.

"É algo com o qual temos que ter muito cuidado e temos que ser extremamente proativos em termos de sua governança. Por quê? A limitação entre os humanos é o quão escalável é a nossa inteligência. Para ser engenheiro é preciso estudar muito, para “Ser enfermeiro, ser advogado leva muito tempo. O problema da IA generalizada é que ela é imediatamente escalável”, disse Carlos Ignacio Gutiérrez, vinculado ao Instituto Future of Live.

Sobre este tema, o magnata sul-africano Elon Musk considerou que a IA “representa uma das maiores ameaças” para a humanidade. “Pela primeira vez estamos numa situação em que temos algo que será muito mais inteligente do que o ser humano mais inteligente”, disse o empresário numa reunião sobre segurança da IA realizada no Reino Unido no início de novembro passado.

Da mesma forma, Musk previu que a IA será capaz de superar a cognição humana em apenas cinco anos . “Para mim, não está claro se podemos controlar tal coisa, mas penso que podemos esperar guiá-la numa direção que seja benéfica para a humanidade”, observou.

Perigos em formação

Em março de 2023, cerca de 1.000 especialistas e proprietários de grandes empresas de tecnologia pediram publicamente a todos os desenvolvedores de IA que suspendessem imediatamente "por pelo menos seis meses" o "treinamento de sistemas de IA mais poderosos que o GPT-4", a base do aprendizado do ChatGPT.

Da esquerda A partir da esquerda: Bill Gates, Steve Wozniak e Elon Musk.Jamie McCarthy / Getty Images for Bill & Melinda Gates Foundation / Justin Sullivan / Andreas Rentz / Gettyimages.ru

 

“Os sistemas de IA com inteligência humano-competitiva podem representar sérios riscos para a sociedade e a humanidade , como demonstrado por extensas pesquisas e reconhecido pelos principais laboratórios de IA”, diz parte da carta, que foi assinada por pesos pesados da indústria como Elon Musk, Steve Wozniak e Bill Gates.

Esta não é uma posição unânime . O próprio Gates duvida da eficácia destes atrasos no desenvolvimento geral da IA e insta antes os governos e as empresas a enfrentarem os desafios.

"Não creio que pedir a um grupo específico que faça uma pausa resolva os desafios. É evidente que há enormes benefícios nestas coisas (…). O que temos de fazer é identificar as áreas mais complicadas", alegou o fundador da Microsoft numa entrevista concedida. para a Reuters em abril de 2023.

O tema também foi abordado na edição mais recente do Fórum de Davos , onde boa parte da elite política e económica global se reúne anualmente. Para a ocasião, foi convidado Sam Altman, CEO da OpenIA, que aproveitou o palco para promover os benefícios da IA e descartar os riscos e alertas que circulam nos meios acadêmicos e na opinião pública.

https://actualidad.rt.com/actualidad/499066-inteligencia-artificial-cerca-escenario-postapocaliptico