Esta IA imita humanos com tanta perfeição que consegue manipular pesquisas de opinião pública

Tecnologia já consegue passar por testes CAPTCHA

IA imitando humano | Fonte: Getty Images
Sem comentários Facebook Twitter Flipboard E-mail
vika-rosa

Vika Rosa

Redatora
vika-rosa

Vika Rosa

Redatora

Jornalista com mais de 5 anos de experiência, cobrindo os mais diversos temas. Apaixonada por ciência, tecnologia e games.


30 publicaciones de Vika Rosa

A confiabilidade das pesquisas de opinião pública e sondagens eleitorais está em cheque. Um novo estudo da Universidade de Dartmouth, publicado nos Proceedings of the National Academy of Sciences, revelou que a inteligência artificial já é capaz de imitar o comportamento humano com tanta perfeição que consegue manipular resultados em larga escala, burlando as proteções de segurança mais comuns.

O autor do estudo, Sean Westwood, professor associado de ciência política, desenvolveu um "respondente sintético autônomo" baseado em modelos de linguagem (LLM). O resultado foi alarmante: em mais de 43.000 testes, a IA convenceu 99,8% dos sistemas de detecção de que era, de fato, uma pessoa real.

Como a IA engana o sistema

A sofisticação do agente criado vai muito além de apenas gerar texto. A partir de um comando simples de 500 palavras, a IA cria uma "persona" completa com dados demográficos específicos, como idade, gênero, escolaridade, renda e localização.

Para evitar ser detectada como um robô, a tecnologia simula comportamentos humanos sutis:

  • Tempo de leitura realista: ajusta a velocidade de resposta com base no nível de escolaridade da persona.
  • Interação física: realiza movimentos do mouse semelhantes aos de um humano.
  • Digitação natural: digita respostas tecla por tecla, inclusive cometendo erros de digitação propositais e corrigindo-os em tempo real, como uma pessoa faria.
  • Resolução de testes: a IA não falhou em quebra-cabeças lógicos ou testes reCAPTCHA.

O impacto na democracia e na ciência

O potencial destrutivo dessa tecnologia é imenso e barato. Segundo o estudo, bastariam entre 10 a 52 respostas falsas geradas por IA para alterar o resultado das sete principais pesquisas nacionais antes da eleição de 2024 nos EUA. O custo? Apenas 5 centavos de dólar por resposta automatizada, muito menos do que o valor pago a respondentes humanos reais (cerca de US$ 1,50).

Além disso, os bots conseguiram produzir respostas impecáveis em inglês mesmo quando programados em outros idiomas, como russo ou mandarim, escancarando a facilidade com que agentes estrangeiros poderiam interferir na percepção pública de outro país.

O problema se estende à comunidade científica, que depende de questionários online para diversos estudos. "Não podemos mais confiar que as respostas das pesquisas venham de pessoas reais", alerta Westwood. "Com os dados contaminados por bots, a IA pode envenenar todo o ecossistema do conhecimento."

Para o pesquisador, a solução existe, mas exige ação rápida: "A tecnologia para verificar a participação humana real já existe; só precisamos da vontade política para implementá-la."

Inicio