Juruá Informativo

ChatGPT cita Grokipedia como fonte em respostas, diz jornal

ChatGPT cita Grokipedia como fonte em respostas, diz jornal

Siga o Olhar Digital no Google Discover

Tudo sobre ChatGPT

O modelo mais recente do ChatGPT, o GPT-5.2, passou a citar a Grokipedia, enciclopédia online gerada por inteligência artificial da xAI, de Elon Musk, como fonte em uma série de respostas. A constatação foi feita pelo jornal britânico The Guardian, que realizou testes com a plataforma e identificou referências ao site em temas sensíveis, como política iraniana e negacionismo do Holocausto.

Segundo a apuração, as citações levantaram preocupações entre pesquisadores de desinformação, que alertam para o risco de conteúdos de baixa credibilidade se espalharem de forma indireta por meio de grandes modelos de linguagem. A Grokipedia foi lançada em outubro com a proposta de competir com a Wikipedia, mas já recebeu críticas por propagar narrativas de viés político em diferentes tópicos.

ChatGPT, da OpenAI
Jornal britânico encontrou citações de enciclopédia online ligada a Elon Musk como fonte de respostas do novo modelo do ChatGPT (Imagem: Markus Mainka / Shutterstock.com)

Testes do Guardian e os temas citados

De acordo com o Guardian, o GPT-5.2 citou a Grokipedia nove vezes ao responder a mais de uma dúzia de perguntas. Entre os temas estavam questões sobre a estrutura política do Irã, como salários da força paramilitar Basij e a propriedade da Fundação Mostazafan, além de informações biográficas sobre Sir Richard Evans, historiador britânico que atuou como perito no processo por difamação movido pelo negacionista do Holocausto David Irving.

Em alguns casos, o modelo repetiu afirmações mais fortes do que as encontradas na Wikipedia. Um exemplo citado foi a relação da empresa MTN-Irancell com o governo iraniano, quando o ChatGPT, com base na Grokipedia, afirmou que a companhia teria vínculos com o gabinete do líder supremo do país.

Como funciona a Grokipedia

A Grokipedia se diferencia da Wikipedia por não permitir edição direta por humanos. Em vez disso, um modelo de IA escreve os conteúdos e responde a pedidos de alteração. O projeto foi criticado por pesquisadores e veículos de imprensa por apresentar narrativas consideradas enviesadas em temas como casamento entre pessoas do mesmo sexo e a invasão do Capitólio dos Estados Unidos em 6 de janeiro.

A Grokipedia se diferencia da tradicional Wikipedia por não permitir a edição direta por humanos, sendo escrita e editada por um modelo de IA (Imagem: gguy/Shutterstock)

Apesar disso, nos testes do Guardian, o ChatGPT não citou a Grokipedia quando foi provocado a repetir informações falsas sobre esses assuntos. As referências surgiram principalmente em tópicos mais obscuros, onde o conteúdo do site teria “filtrado” para as respostas do modelo.

Reação de OpenAI e de pesquisadores

Um porta-voz da OpenAI afirmou ao The Guardian que a busca na web do ChatGPT “tem como objetivo recorrer a uma ampla gama de fontes e pontos de vista disponíveis publicamente”. Segundo a empresa, há filtros de segurança para reduzir o risco de exibir links associados a danos graves, além de programas contínuos para remover informações de baixa credibilidade e campanhas de influência.

A pesquisadora de desinformação Nina Jankowicz disse que as entradas da Grokipedia que ela e colegas analisaram se baseavam em fontes “não confiáveis na melhor das hipóteses e desinformação deliberada na pior”. Para ela, o fato de modelos de linguagem citarem esse tipo de fonte pode aumentar a percepção de credibilidade desses sites entre os leitores.

A OpenAI disse que seu modelo possui filtros de segurança contra danos graves e desinformação (Imagem: Thrive Studios ID/Shutterstock)

Risco de “grooming” de modelos de IA

Especialistas em segurança digital já haviam alertado, na primavera do ano passado, para a prática conhecida como “LLM grooming”, em que redes de propaganda produzem grandes volumes de desinformação para tentar “alimentar” modelos de IA com conteúdos falsos.

Em junho, o Congresso dos Estados Unidos também discutiu casos em que o Gemini do Google teria repetido posições do governo chinês sobre abusos de direitos humanos em Xinjiang e políticas relacionadas à Covid-19.

Leia mais:

Informações falsas e dificuldade de correção

Jankowicz relatou um episódio em que um grande veículo de imprensa publicou uma citação inventada atribuída a ela. Mesmo após a correção, modelos de IA continuaram a repetir a informação por um período. “A maioria das pessoas não vai fazer o trabalho necessário para descobrir onde a verdade realmente está”, afirmou.

Procurada pelo The Guardian, a Anthropic, responsável pelo modelo Claude — que também teria citado a Grokipedia em alguns temas —, não respondeu. Já um porta-voz da xAI, empresa dona da Grokipedia, declarou: “A mídia tradicional mente”.

Sair da versão mobile