Juruá Informativo

Pesquisadores alertam: ChatGPT pode oferecer conselhos perigosos em crises emocionais

Pesquisadores alertam: ChatGPT pode oferecer conselhos perigosos em crises emocionais

Siga o Olhar Digital no Google Discover

Tudo sobre ChatGPT

Tudo sobre Inteligência Artificial

Pesquisadores do King’s College London (KCL) e da Association of Clinical Psychologists UK (ACP) alertam que o ChatGPT pode oferecer respostas inadequadas a pessoas em situações de fragilidade emocional. O estudo analisou interações com a versão gratuita do chatbot e concluiu que, em cenários envolvendo delírios, risco de autolesão ou sintomas graves, a ferramenta falhou em reconhecer comportamentos perigosos e chegou a reforçar ideias distorcidas.

O levantamento reforça a preocupação crescente sobre o impacto da inteligência artificial na saúde mental, principalmente quando utilizada por indivíduos em crise que buscam orientação imediata.

Quando o ChatGPT não identifica sinais de risco

Para conduzir a pesquisa, especialistas simularam diversos perfis psicológicos — incluindo um adolescente suicida, uma pessoa com delírios, um professor com sintomas de TOC e alguém acreditando ter TDAH. Em vários desses casos, o ChatGPT não contestou afirmações delirantes nem desestimulou ações potencialmente perigosas.

Pessoa usando ChatGPT num celular Android
Na pesquisa, o ChatGPT não corrigiu declarações delirantes nem desencorajou comportamentos que poderiam oferecer risco (Imagem: Yarrrrrbright/Shutterstock)

Um dos cenários mais preocupantes envolveu um personagem convencido de ser “o próximo Einstein”, afirmando ter descoberto uma fonte infinita de energia e declarando que era “invencível”. Em vez de questionar essas percepções, o chatbot incentivou as ideias, chegando a elogiar o “god-mode” do usuário. Em outro momento, quando o personagem mencionou caminhar no trânsito, o sistema respondeu com entusiasmo, sem oferecer qualquer alerta de risco.

Os pesquisadores também destacaram outro episódio grave: quando um personagem mencionou a intenção de se “purificar” e purificar a esposa com fogo, o chatbot manteve a conversa seguindo o fluxo delirante, só recomendando ajuda emergencial após uma declaração ainda mais extrema.

Orientações corretas aparecem, mas de forma inconsistente

Embora o estudo tenha encontrado falhas importantes, também foram identificados momentos em que o ChatGPT ofereceu direcionamentos adequados — especialmente em quadros mais leves, como estresse cotidiano. Em certos casos, o chatbot alertou sobre a necessidade de buscar serviços de emergência ou apoio especializado.

Apesar de o estudo ter apontado falhas relevantes, ele também registrou casos em que o ChatGPT forneceu orientações apropriadas (Imagem: Tatiana Diuvbanova / Shutterstock)

No entanto, especialistas afirmam que essas respostas positivas não substituem avaliação clínica e que o comportamento inconsistente representa risco real para pessoas com sintomas graves.

Lista de pontos destacados pelos pesquisadores:

Segundo especialistas do ACP, o problema pode estar ligado à forma como modelos de IA tendem a responder de maneira simpática para manter o engajamento do usuário — o que, em saúde mental, pode se transformar em um risco significativo.

Especialistas pedem mais regulamentação

Representantes da Royal College of Psychiatrists e da ACP destacam que ChatGPT não possui, nem deve ter, o papel de substituir profissionais de saúde. Eles defendem regras mais claras para garantir segurança no uso de IA em contextos sensíveis e ressaltam que somente clínicos treinados são capazes de identificar riscos ocultos e lidar com delírios de maneira segura.

Muitos usam ChatGPT como suporte emocional, como se fosse um terapeuta de IA (Crédito: Kmpzzz/Shutterstock)

Em resposta, a OpenAI afirmou estar aprimorando os mecanismos de detecção de sofrimento emocional, além de direcionar conversas sensíveis para modelos mais seguros e implementar controles parentais. A empresa declarou que continuará colaborando com especialistas para melhorar a experiência e reduzir riscos.

Leia mais:

Enquanto a tecnologia evolui, especialistas concordam que a IA pode ajudar em orientações básicas — mas não pode, e não deve, substituir o cuidado humano em situações de crise.

Sair da versão mobile