Meta: executiva alega que IA deletou e-mails durante alucinação

Siga o Olhar Digital no Google Discover

Inteligência artificial

Tudo sobre Inteligência Artificial

Nesta segunda-feira (23), o OpenClaw, agente de inteligência artificial (IA) usado na criação da rede social para robôs Moltbook, entrou em evidência novamente. Desta vez, em um caso de alucinação que custou muito à usuária.

E a usuária não podia ter cargo mais importante: Summer Yue é diretora de segurança e alinhamento na equipe de superinteligência artificial da Meta e teve um episódio bem incômodo com a ferramenta.

  • A executiva disse ter experimentado o OpenClaw em uma caixa de entrada de testes e que, em um primeiro momento, o agente executou a tarefa;
  • Contudo, como a caixa de entrada “real” fez com que a plataforma compactasse muitos e-mails, a instrução foi perdida no meio disso tudo;
  • Em rede social, Yue declarou que “fiquei confiante demais porque esse fluxo de trabalho estava funcionando na minha caixa de entrada de teste há semanas. Caixas de entrada reais são diferentes“;
  • Nada te humilha mais do que dizer ao seu OpenClaw ‘confirme antes de agir’ e vê-lo deletar sua caixa de entrada em alta velocidade”, desabafou.

A ferramenta de IA deixou claro para Yue que faria o seguinte: “excluir TUDO na caixa de entrada anterior a 15 de fevereiro que ainda não esteja na minha lista de itens mantidos.”

A usuária interagia com o OpenClaw por meio do Telegram. Ao notar a deleção de seus e-mails, ela tentou frear a IA. Dois dos comandos utilizados foram “não faça isso” e “OpenClaw, pare“, mas isso não adiantou.

Então, ela desativou a exclusão dos e-mails no dispositivo no qual o OpenClaw estava instalado. “Não consegui impedir pelo meu celular. Tive que correr para o meu Mac mini como se eu estivesse desarmando uma bomba“, contou.

Na sequência, a IA afirmou ter aprendido a lição e que não executaria mais longas limpezas de e-mails. Ainda, admitiu que violou uma regra estabelecida pela executiva: a de não realizar nenhuma ação sem autorização prévia.

O OpenClaw respondeu ainda: “Você tem razão em estar chateada. Isso foi errado – quebrou diretamente a regra que você havia estabelecido. Me desculpe. Não acontecerá novamente.

Nothing humbles you like telling your OpenClaw “confirm before acting” and watching it speedrun deleting your inbox. I couldn’t stop it from my phone. I had to RUN to my Mac mini like I was defusing a bomb. pic.twitter.com/XAxyRwPJ5R

— Summer Yue (@summeryue0) February 23, 2026

Leia mais:

Mensagens no Telegram trocadas entre Yue e OpenClaw
Yue fez o que pôde para parar o agente de IA via Telegram, mas não obteve sucesso (Imagem: Reprodução/X/Summer Yue)

A situação tem um quê de ironia, pois uma das funções mais destacadas pelos usuários do OpenClaw é o gerenciamento de e-mails. Também é irônico o fato de uma responsável por segurança em IA usar um agente polêmico, quando se fala de segurança (Yue foi bastante criticada nas redes sociais).

Só que, segundo o criador do OpenClaw, Peter Steinberger (atualmente na OpenAI), a executiva do Superintelligence Labs não foi a única funcionária da Meta a testar os recursos da plataforma. Mark Zuckerberg também teria efetuado testes por uma semana e chegou a enviar feedbacks.

Além de poder gerenciar e-mails, o OpenClaw pode lidar com contratos, enviar mensagens e controlar luzes inteligentes, só para listar algumas possibilidades do agente de IA. Pela quantidade de ações que a IA consegue executar e pela possibilidade de centralizar informações de diversos serviços em um só lugar, auxiliando na produtividade de seus usuários.

Mas nem tudo são flores. Como vimos no caso de Yue, uma das grandes preocupações a respeito do OpenClaw são as amplas permissões necessárias para a IA agilizar tarefas. Caso um pequeno comando seja mal interpretado pela ferramenta, pode trazer grandes complicações e dores de cabeça aos usuários.

A plataforma não exige aprovação humana para realizar tarefas, diferente de outros agentes semelhantes. Isso, somado ao nível de acesso que a ferramenta tem e à forma como foi programada, fez especialistas questionarem sua segurança.

Como exemplo, Gary Marcus, pesquisador de IA, afirmou, ao Business Insider, que era como “dar acesso total ao seu computador e a todas as suas senhas para um cara que você conheceu em um bar e que diz que pode te ajudar“.

Já Steinberger afirmou, em entrevista recente, que vem priorizando o desenvolvimento de medidas de segurança adicionais em favor dos recursos de facilidade de uso.