Olhar Digital > Pro > IA falha ao prever risco de suicídio, mostra estudo global
Pesquisa com mais de 35 milhões de prontuários revela que algoritmos classificam erroneamente grande parte dos pacientes em risco
Tudo sobre Inteligência Artificial
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
Algoritmos de aprendizado de máquina para IA desenvolvidos para prever risco de suicídio ou automutilação apresentam desempenho insatisfatório e não são mais eficazes que métodos tradicionais de avaliação de risco.
A conclusão vem de um estudo publicado em 11 de setembro no PLOS Medicine por Matthew Spittal, da Universidade de Melbourne, na Austrália, e colaboradores.

Detalhes do estudo
- A equipe realizou uma revisão sistemática e meta-análise de 53 estudos envolvendo mais de 35 milhões de prontuários médicos e quase 250 mil casos de suicídio ou automutilação atendidos em hospitais.
- Embora os algoritmos tenham demonstrado alta especificidade – ou seja, são bons para identificar pessoas que não tentarão suicídio – eles falham em reconhecer grande parte daqueles que efetivamente apresentam risco.
- Mais da metade dos indivíduos que posteriormente se automutilaram ou tentaram suicídio havia sido classificada como de baixo risco.
- Entre os considerados de alto risco, apenas 6% morreram por suicídio e menos de 20% voltaram aos serviços de saúde por automutilação.
Leia mais:
- Namorar uma IA faz bem à saúde? Veja o que diz a medicina
- Quais os sintomas do Transtorno de Personalidade Borderline (TPB)?
- Adolescência: confira 8 séries e filmes parecidos com a produção da Netflix
Pesquisa na área precisa avançar
Os autores destacam que a qualidade da pesquisa na área ainda é baixa, com risco de viés em muitos estudos, e afirmam que não há evidências suficientes para mudar as diretrizes clínicas atuais.
Essas diretrizes já desencorajam o uso de avaliações de risco – e agora também dos algoritmos de IA – como única base para priorizar intervenções ou alocar recursos de prevenção.
Colaboração para o Olhar Digital
Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.