Mulher denuncia uso indevido de inteligência artificial após ter imagem manipulada para nudez

Uma mulher denunciou à Polícia Civil do Rio de Janeiro o uso indevido de inteligência artificial após ter uma foto pessoal manipulada para aparentar nudez. O caso foi registrado na 10ª Delegacia de Polícia (Botafogo), na Zona Sul da capital, como crime de registro não autorizado de intimidade sexual.

Segundo o boletim de ocorrência, Julie Yukari contou que havia publicado uma foto com sua gata na noite de 31 de dezembro e foi dormir após a virada do ano. Ao acordar, percebeu que diversos perfis no X (antigo Twitter) estavam solicitando à ferramenta de inteligência artificial Grok que gerasse imagens dela nua e em poses de cunho sexual.

De acordo com a vítima, a manipulação feriu sua reputação e utilizou sua imagem de forma depreciativa, sem qualquer tipo de consentimento ou autorização. Julie afirmou que a exposição causada pelas imagens geradas artificialmente teve impacto direto em sua vida pessoal e emocional.

No dia 2 de janeiro, ela informou nas redes sociais que registrou boletim de ocorrência e cobrou a identificação dos responsáveis. Em uma publicação, Julie compartilhou uma mensagem do próprio X informando que a conta envolvida no pedido de manipulação foi removida por violar as regras da plataforma.

Dados do Instituto de Segurança Pública (ISP) apontam que mulheres representam 87,8% das vítimas desse tipo de crime no estado do Rio. Entre 2020 e 2024, houve um aumento de 300% nos registros de crimes sexuais digitais. Ainda segundo o levantamento, quase 40% dos autores são ex-companheiros das vítimas.

Leia Mais:

  • Executiva relata colapso mental após vício em criar imagens com inteligência artificial
  • Japonesa se casa com parceiro criado por inteligência artificial
  • Para CEO do maior banco dos EUA, IA ainda não ameaça vagas de emprego