A conspiração da "internet morta" está ganhando força com o surgimento de conteúdo gerado por IA.

 A conspiração da "internet morta" está ganhando força com o surgimento de conteúdo gerado por IA.

O chefe da OpenAI agora teme pela rede criada por programas automatizados que facilitam a manipulação e a desinformação.

O CEO da OpenAI, Sam Altman, fala durante uma reunião da Força-Tarefa da Casa Branca sobre Educação em Inteligência Artificial (IA) no Salão Leste da Casa Branca, em Washington.

Por Raul Limon, El Pais, Espanha *

“Eu o havia desejado com um fervor muito além de qualquer restrição; mas agora que ele foi alcançado, a beleza do sonho se foi, e aversão e horror me preencheram.” Esta é sua reação à criação do Dr. Frankenstein na obra de Mary Shelley de 1818, conhecido pelo sobrenome do personagem do cientista, ou O Prometeu Moderno . Sam Altman, CEO da OpenAI, sofreu uma vertigem semelhante. O CEO da empresa por trás de um dos desenvolvimentos mais sofisticados em inteligência artificial (IA) está começando a acreditar na teoria da “internet morta” , que argumenta que o conteúdo gerado automaticamente superará o gerado por humanos, multiplicando assim os perigos da manipulação, da desinformação e do condicionamento comportamental intencional.

 

A mensagem concisa de Altman levantou preocupações: "Nunca levei a teoria da internet morta tão a sério, mas parece que agora há muitas contas do Twitter [ahora X y propiedad de Elon Musk] administradas pela LLM", os modelos de linguagem da IA.

Aaron Harris, diretor global de tecnologia (CTO) da Sage, multinacional especializada em aplicações de IA , é cauteloso ao nomear o fenômeno, embora não negue o processo: “Não sei se eu a chamaria de 'internet morta', mas certamente está mudando rapidamente. O aumento do conteúdo automatizado e da interação orientada por bots [programas informáticos que imitan el comportamiento humano] torna cada vez mais difícil separar o autêntico do ruído. A questão é se permitimos que esse ruído nos sobrecarregue ou se nos concentramos em projetar tecnologias que restaurem a confiança. O que importa agora é como filtramos, verificamos e exibimos informações nas quais as pessoas podem confiar.”

A referência específica de Altman às redes sociais não é gratuita. "Isso é de vital importância, visto que as mídias sociais são agora a principal fonte de informação para muitos usuários ao redor do mundo", escrevem Jake Renzella, chefe de ciência da computação, e Vlada Rozova, pesquisadora de aprendizado de máquina na Universidade de Nova Gales do Sul (UNSW Sydney) e na Universidade de Melbourne, respectivamente, em um artigo publicado no The Conversation .

“À medida que essas contas com tecnologia de IA aumentam em seguidores (muitos falsos, alguns reais), esse número elevado legitima a conta para usuários reais. Isso significa que um exército de contas está sendo criado. Já existem fortes evidências de que as mídias sociais estão sendo manipuladas por esses bots para influenciar a opinião pública com desinformação, e isso vem acontecendo há anos”, enfatizam os pesquisadores australianos, ecoando o alerta de Altman. Um estudo da empresa de segurança Imperva, publicado há dois anos, já estimou que “quase metade de todo o tráfego da internet era direcionado por bots ”.

Já há fortes evidências de que as mídias sociais estão sendo manipuladas por bots [programas informáticos que imitan el comportamiento humano] para influenciar a opinião pública com informações erradas, e isso vem acontecendo há anos.

Jake Renzella e Vlada Rozova, pesquisadores das universidades de Sydney e Melbourne

E esses bots não são apenas capazes de criar conteúdo único, mas também de imitar a fórmula para sua disseminação massiva e viral. De acordo com um novo estudo publicado na Physical Review Letters e liderado por pesquisadores da Universidade de Vermont e do Instituto Santa Fé, "tudo o que se espalha — seja uma crença, uma piada ou um vírus — evolui em tempo real e ganha força à medida que se espalha", seguindo um modelo matemático de "cascatas auto [ Self-Reinforcing Cascades ] ".

De acordo com a pesquisa, o que é disseminado sofre mutações à medida que se espalha, e essa mudança contribui para que se torne viral, em um modelo semelhante aos incêndios de sexta geração, impossíveis de extinguir com meios convencionais. "Nos inspiramos, em parte, nos incêndios florestais: eles podem se intensificar quando queimam florestas densas e enfraquecer quando atravessam clareiras abertas. O mesmo princípio se aplica a informações, boatos ou doenças. Eles podem se intensificar ou enfraquecer dependendo das condições", explica Sid Redner, físico, professor do Instituto Santa Fé e coautor do artigo.

Juniper Lovato, cientista da computação e coautora do estudo, acredita que o trabalho proporciona uma melhor compreensão de como ocorrem a formação de crenças, a desinformação e o contágio social. "Isso nos dá uma base teórica para explorar como histórias e narrativas evoluem e se espalham pelas redes", afirma.

Pesquisadores alertam que os riscos de conteúdo viral que apoia manipulação ou desinformação são multiplicados por ferramentas de inteligência artificial e exigem que os usuários estejam mais cientes dos perigos dos assistentes e agentes de IA.

Porque essas ferramentas inovadoras de IA não só sabem como criar conteúdo e torná-lo viral, mas também como criar um impacto pessoal e eficaz com as informações que coletam das interações dos usuários.

O artigo " Big Help or Big Brother ? Auditando rastreamento, criação de perfil e personalização em assistentes de IA generativos ", apresentado no Simpósio de Segurança USENIX em Seattle, examina a vulnerabilidade dos usuários à influência.

“Quando se trata de suscetibilidade à influência das mídias sociais, não se trata apenas de quem você é, mas de onde você está na rede e com quem você está conectado”, explica Luca Luceri, pesquisador da Universidade do Sul da Califórnia e coautor do artigo.

“Paradoxo da Suscetibilidade”

Nesse sentido, a pesquisa reflete um fenômeno que eles chamam de "Paradoxo da Suscetibilidade", que pressupõe "um padrão em que os amigos dos usuários são, em média, mais facilmente influenciados do que os próprios titulares das contas". Segundo o estudo, esse comportamento "pode explicar como comportamentos, tendências e ideias se tornam populares e por que alguns cantos da internet são mais vulneráveis à influência do que outros".

Pessoas que postam porque outras pessoas o fazem geralmente pertencem a círculos unidos que compartilham comportamentos semelhantes, sugerindo, de acordo com o estudo, que “a influência social opera não apenas por meio de trocas diretas entre indivíduos, mas também é moldada e limitada pela estrutura da rede”.

Dessa forma, é possível prever quem tem maior probabilidade de compartilhar conteúdo, uma mina de ouro para a viralização automática com base nos dados pessoais coletados pela IA. "Em muitos casos, saber como os amigos de um usuário se comportam é suficiente para estimar como o usuário se comportaria", alerta o estudo.

A solução para os efeitos dessa inteligência artificial na internet, criada por humanos, mas que começa a dominar, não é apenas regulatória. De acordo com "The Ethics of Advanced AI Assistants" , um trabalho complexo e exaustivo do Google Deepmind com vinte pesquisadores e universidades, o desafio deve ser encontrado em uma relação tetraédrica. entre o assistente de IA, o usuário, o desenvolvedor e a sociedade para desenvolver “um conjunto apropriado de valores ou instruções para operar com segurança no mundo e produzir resultados que sejam amplamente benéficos”.

O trabalho dos pesquisadores desenvolve, à maneira das leis de Asimov para a robótica, uma série de mandamentos para evitar uma IA alheia aos princípios morais que podem ser resumidos da seguinte forma: não manipulará o usuário para favorecer os interesses da IA (de seus desenvolvedores) ou gerar um custo social (como a desinformação), não permitirá que o usuário ou os desenvolvedores apliquem estratégias negativas para a sociedade (dominação, condicionamento ou descrédito institucional) e não limitará indevidamente a liberdade do usuário.

A questão não é necessariamente se o conteúdo vem de um humano ou de uma IA, mas se alguém é responsável por ele.

Aaron Harris, CTO da Sega

Aaron Harris, CTO da Sega, acredita que uma internet ética é possível, "mas não acontecerá por acaso", afirma. "Transparência e responsabilidade devem determinar como a IA é projetada e regulamentada. As empresas que a desenvolvem devem garantir que seus resultados sejam auditáveis e explicáveis, para que as pessoas entendam de onde vêm as informações e por que estão sendo recomendadas. Em finanças, por exemplo, a precisão não é opcional, e os erros têm consequências reais. O mesmo princípio se aplica online : treinamento responsável, rotulagem clara e a capacidade de questionar os resultados podem tornar a IA parte de uma internet mais ética e confiável."

Harris defende a proteção da "internet humana", "especialmente agora que cada vez mais conteúdo está sendo criado por bots ", mas não à custa de dispensar o progresso feito. "Não acho que a solução seja voltar ao mundo pré-IA e tentar restringir ou eliminar completamente o conteúdo que ele gerou. Já faz parte de como vivemos e trabalhamos e pode agregar valor real quando usado com responsabilidade. A questão é se alguém é responsável pelo conteúdo. Esse é o princípio que todas as empresas devem seguir: a IA deve aprimorar as capacidades humanas, não substituí-las. Uma internet mais humana ainda é possível, mas somente se mantivermos as necessidades das pessoas no centro e tornarmos a responsabilização inegociável."

Raúl Limón

Raúl Limón

Formado em Ciências da Informação pela Universidade Complutense, com mestrado em Jornalismo Digital pela Universidade Autônoma de Madri e formação nos EUA, é editor da seção de Ciência. Colabora para a televisão, escreveu dois livros (um deles vencedor do Prêmio Lorca) e recebeu o prêmio Disseminação na Era Digital.