Especialistas vão orientar OpenAI sobre bem-estar e uso de IA

Logo do ChatGPT

Tudo sobre ChatGPT

Inteligência artificial

Tudo sobre Inteligência Artificial

OpenAI Logo

Tudo sobre OpenAI

A OpenAI foi recentemente acusada de facilitar o suicídio e, desde então, tem buscado formas de tornar seu chatbot mais seguro.

Em nota, a empresa comunicou seu mais recente passo para isso: a implementação de um Conselho de Especialistas em Bem-Estar e IA, que vem sendo planejado desde o início de 2025, com consultas informais a especialistas em controle parental.

Computador
Conselho foi implementado para auxiliar a OpenAI sobre possíveis falhas nas proteções para crianças e adolescentes em interações longas (Imagem: Arina P Habich/Shutterstock)

Emoções e saúde mental devem orientar as atualizações dos produtos da OpenAI

Segundo a empresa, uma das prioridades era encontrar pessoas com experiência “em como construir uma tecnologia que apoie o desenvolvimento saudável dos jovens”, afinal, o número de adolescentes que usam a inteligência artificial (IA) é grande e difere significativamente do público adulto.

O grupo inclui, segundo a nota, David Bickham, do Hospital Infantil de Boston (EUA), que analisa os efeitos das redes sociais na saúde mental infantil, e Mathilde Cerioli, da organização Everyone.AI, que pesquisa os impactos e benefícios da IA no desenvolvimento cognitivo e emocional das crianças, entre outros.

Segundo a empresa, esses especialistas têm a função de orientar a OpenAI sobre possíveis falhas nas proteções para crianças e adolescentes em interações longas, garantindo que eles não fiquem expostos à chamada “psicose de IA”, um fenômeno que pode afetar a saúde mental.

Crianças não são miniadultos. Seus cérebros são muito diferentes e o impacto da IA é muito diferente.

Mathilde Cerioli, da organização Everyone.AI, em entrevista ao Le Monde

OpenAI anuncia redução de 30% no viés político do ChatGPT
Iniciativa surge em meio ao aumento da pressão regulatória, incluindo uma investigação da FTC, e o processo judicial envolvendo o suicídio de um adolescente (Imagem: Teacher Photo/Shutterstock)

Grupo atuará junto ao ChatGPT e Sora

Inicialmente, segundo a nota, o grupo atuará no ChatGPT e no Sora, aplicativo de vídeos curtos, auxiliando a definir diretrizes para tornar as interações entre usuários e a IA mais saudáveis.

Leia mais:

A iniciativa surge em meio ao aumento da pressão regulatória, explica a CNBC, incluindo uma investigação da FTC, e o processo judicial envolvendo o suicídio de um adolescente supostamente relacionado ao uso do ChatGPT.

Além disso, a OpenAI desenvolve um sistema de controle de idade e novas ferramentas de controle parental que alertam os pais sobre possíveis sinais de sofrimento emocional em jovens.

O Conselho inclui especialistas de instituições, como Oxford, Stanford e o Hospital Infantil de Boston, e trabalhará em parceria com a Rede Global de Médicos para avaliar políticas e recursos da plataforma.

Entre os objetivos do Conselho está definir interações saudáveis com IA, especialmente para adolescentes, considerando o uso diferenciado da tecnologia (Imagem: Kmpzzz/Shutterstock)

Objetivos e Áreas de Contribuição do Conselho de Especialistas da OpenAI

  • Orientar o desenvolvimento do ChatGPT e do aplicativo Sora para experiências mais saudáveis e seguras;
  • Avaliar como a IA afeta emoções, motivação e saúde mental dos usuários de todas as idades;
  • Definir interações saudáveis com IA, especialmente para adolescentes, considerando o uso diferenciado da tecnologia;
  • Fornecer conselhos, fazer perguntas e contribuir para decisões informadas da OpenAI;
  • Determinar o comportamento da IA em situações complexas ou sensíveis;
  • Auxiliar na criação de mensagens e notificações de apoio a pais e adolescentes em situações de risco;
  • Pensar em como o ChatGPT pode impactar positivamente a vida dos usuários e promover bem-estar;
  • Apoiar na definição de diretrizes de segurança, saúde mental e boas práticas digitais;
  • Participar de reuniões recorrentes e sessões presenciais para discutir guardrails e estratégias de interação saudável.