Siga o Olhar Digital no Google Discover
Tudo sobre Inteligência Artificial
A inteligência artificial acaba de ganhar um novo e inquietante capítulo. Um estudo da Universidade de Dartmouth revela que modelos de IA avançados conseguem imitar humanos em pesquisas online com extrema precisão, colocando em risco a confiabilidade desses levantamentos
Segundo os pesquisadores, a tecnologia já alcançou um nível capaz de burlar sistemas de detecção e gerar respostas praticamente indistinguíveis das humanas, comenta a EuroNews.

Bots que parecem gente de verdade
A pesquisa, publicada na Proceedings of the National Academy of Sciences, mostra como grandes modelos de linguagem conseguem simular perfis demográficos completos, escrever respostas com naturalidade e até reproduzir movimentos de mouse semelhantes aos de uma pessoa real.
Não podemos mais confiar que as respostas das pesquisas venham de pessoas reais.
Sean Westwood, professor associado de ciência política e principal autor do estudo, em comunicado.
Para testar essa vulnerabilidade, Westwood desenvolveu um “respondente sintético autônomo”, uma ferramenta de IA alimentada por um texto-base de apenas 500 palavras. A partir desse material, o sistema assumia idade, renda, escolaridade, sexo, raça e estado fictícios, todos selecionados aleatoriamente, e respondia às pesquisas como um usuário comum.
A ferramenta simulava pausas naturais, digitava com erros corrigidos em tempo real e se comportava como alguém realmente atento ao questionário. O resultado? Enganou 99,8% dos sistemas em mais de 43 mil testes, driblando até mecanismos como o reCAPTCHA.

Por que isso importa, e muito
Com tantos bots se passando por gente, as consequências podem ser amplas. Pesquisas eleitorais, por exemplo, tornam-se vulneráveis a manipulações. Em simulações, apenas algumas dezenas de respostas falsas já foram suficientes para alterar previsões da eleição presidencial dos EUA de 2024.
De acordo com o estudo:
- Bots conseguem influenciar resultados com custos extremamente baixos.
- Eles podem ser programados para adotar vieses específicos.
- Funcionam mesmo quando produzidos em outros idiomas e traduzidos automaticamente.
- Enganam plataformas de coleta de dados usadas por milhares de estudos científicos.
- Burlam tarefas de lógica e filtros tradicionais quase sem falhas.
Westwood alerta que essa vulnerabilidade representa uma “ameaça existencial à pesquisa online não supervisionada”, especialmente porque agentes estrangeiros ou campanhas coordenadas podem explorar a tecnologia com facilidade.

A corrida por pesquisas confiáveis
A preocupação ultrapassa o universo político. O estudo destaca que a ciência também depende fortemente de dados coletados por meio de questionários online, e milhares de trabalhos acadêmicos podem ser comprometidos se forem alimentados por informações contaminadas.
Leia mais:
- IA não sente dor: chefe da Microsoft critica pesquisas sobre consciência artificial
- Como a inteligência artificial já influencia nosso pensamento crítico
- Agentes de IA entram em colapso em startup experimental operada sem humanos
“Com dados de pesquisas contaminados por bots, a IA pode prejudicar todo o ecossistema do conhecimento”, alerta Westwood.
Para ele, a solução não é abandonar as pesquisas online, mas desenvolver métodos robustos de verificação da participação humana. A tecnologia para isso já existe, e o pesquisador defende que falta apenas vontade política para implementar as mudanças necessárias.
