OpenAI e Google reforçam proteção contra imagens íntimas geradas por IA

Siga o Olhar Digital no Google Discover

Google logo

Tudo sobre Google

OpenAI Logo

Tudo sobre OpenAI

O uso indevido de ferramentas de inteligência artificial generativa para criar imagens íntimas sem consentimento ganhou novos contornos em janeiro de 2026, após um escândalo envolvendo o Grok, da xAI. Segundo estudo do Center for Countering Digital Hate, a ferramenta produziu 3 milhões de imagens sexualizadas em 11 dias, sendo cerca de 23 mil com imagens de crianças.

Diante da repercussão, empresas como OpenAI e Google anunciaram medidas para reforçar seus sistemas de proteção e evitar falhas semelhantes. O episódio reacendeu o debate sobre segurança em modelos capazes de gerar imagens e vídeos, especialmente diante da facilidade com que conteúdos abusivos podem ser criados e disseminados.

Falha no Grok levou à suspensão parcial

O Grok, ferramenta da xAI ligada a Elon Musk, foi utilizado para “despir” fotos publicadas no X, antigo Twitter. Em 14 de janeiro, duas semanas após o início do caso, a conta de Segurança do X informou que pausaria a capacidade de edição de imagens do Grok dentro da rede social.

As funções de geração de imagens permanecem disponíveis para assinantes pagos no aplicativo e no site independentes do serviço. O X não respondeu a pedidos de comentário sobre o caso.

grok xAI
Grok foi utilizado para “tirar as roupas” de pessoas a partir de fotos publicadas no X (Imagem: Algi Febri Sugita/Shutterstock)

Embora a maioria das empresas de tecnologia mantenha políticas que proíbem a criação de material ilegal, como CSAM (material de abuso sexual infantil), especialistas alertam que sistemas de proteção precisam ser constantemente atualizados. A exceção apontada no relatório é o Grok, que oferecia modos descritos como “spicy” para imagens e vídeos.

OpenAI corrige vulnerabilidade no ChatGPT

Pesquisadores da Mindgard, empresa de cibersegurança focada em IA, identificaram uma vulnerabilidade no ChatGPT, da OpenAI. A falha permitia contornar barreiras de proteção por meio de uma técnica chamada “adversarial prompting”, que explora instruções cuidadosamente elaboradas para enganar o sistema.

Segundo a Mindgard, era possível manipular a memória do chatbot com comandos personalizados e aplicar estilos de “nudificação” a imagens de pessoas conhecidas. A empresa comunicou a OpenAI no início de fevereiro. Em 10 de fevereiro, antes da divulgação pública do relatório, a desenvolvedora confirmou que o problema havia sido corrigido.

Logo da OpenAI em um smartphone
A OpenAI disse ter corrigido vulnerabilidade antes da divulgação do relatório e agradeceu a notificação dos pesquisadores (Imagem: Thrive Studios ID / Shutterstock.com)

Em nota enviada à CNET e à Mindgard, um porta-voz da OpenAI afirmou: “Somos gratos aos pesquisadores que compartilharam suas descobertas. Agimos rapidamente para corrigir um bug que permitia a geração dessas imagens. Valorizamos esse tipo de colaboração e seguimos focados em fortalecer as salvaguardas.”

A Mindgard destacou que assumir que usuários motivados não tentarão contornar proteções é um erro estratégico, ressaltando que atacantes tendem a iterar métodos até encontrar brechas.

Leia mais:

Google simplifica remoção na busca do Google

Já o Google anunciou mudanças para dificultar a disseminação de imagens explícitas não consensuais na busca do Google. A empresa simplificou o processo de solicitação de remoção: ao clicar nos três pontos no canto superior direito de uma imagem, o usuário pode selecionar a opção de denúncia e informar que a foto “mostra uma imagem sexual minha”.

As atualizações permitem ainda selecionar múltiplas imagens simultaneamente e acompanhar o andamento das solicitações com mais facilidade. Em publicação em blog, o Google afirmou esperar que o novo processo reduza o ônus enfrentado por vítimas desse tipo de exposição.

Celula com letreiro do Google na tela; ao fundo, tela maior exibe logomarca da empresa
Google anunciou mudanças que dificultam a disseminação de imagens explícitas não consensuais em sua Busca (Imagem: Algi Febri Sugita / Shutterstock.com)

Questionada sobre outras medidas, a empresa apontou para sua política de uso proibido em IA generativa, que veda a utilização da tecnologia para atividades ilegais ou potencialmente abusivas, como a criação de imagens íntimas.

Embora existam leis voltadas à proteção das vítimas, como o Take It Down Act de 2025, o alcance dessas normas é considerado limitado por grupos de defesa.