Com milhões de vídeos falsos circulando, ferramentas baseadas em inteligência artificial surgem como única saída eficaz

Imagem: Anggalih Prasetya/Shutterstock

Tudo sobre Inteligência Artificial

Especialistas alertam que apenas a própria inteligência artificial (IA) será capaz de conter a proliferação de deepfakes — vídeos hiper-realistas manipulados por algoritmos.

Segundo a Organização Mundial da Propriedade Intelectual (OMPI), essas falsificações utilizam IA para sobrepor rostos, vozes e gestos, criando conteúdos que parecem autênticos, mas são completamente fabricados.

Potencialize seu trabalho com IA!

Aprenda a criar agentes de Inteligência Artificial que trabalham 24 horas por você!
Conheça o curso de IA & Automação de Agentes com N8N da Impacta em parceria com o Olhar Digital.

Oferta Exclusiva: Assine o plano anual do Clube Olhar Digital por apenas R$ 58,99 e ganhe 10% de desconto imediato no curso.
A economia é maior que o valor da assinatura!

Aproveite essa oportunidade e dê o próximo passo rumo à automação inteligente!

Assine Agora e Economize!

Crescimento exponencial de conteúdos maliciosos impulsiona uso de IA para detecção e exige regulação imediata (Imagem: Vlyaks/Shutterstock)

Deepfakes estão ficando mais comuns

  • Em 2024, um novo deepfake foi criado a cada cinco minutos, conforme estima o think tank Entrust, um instituto de cibersegurança.
  • Políticos como Marco Rubio e Guido Crosetto, além de figuras como Taylor Swift e Joe Rogan, foram vítimas recentes desse tipo de golpe.
  • Os riscos são sérios: desde fraudes e roubos de dados até tentativas de manipular decisões políticas, como ocorreu quando a voz de Joe Biden foi clonada para desincentivar o voto em eleições locais.

A União Europeia prevê que 8 milhões de deepfakes serão compartilhados no bloco em 2024 — um salto significativo em relação aos 500 mil registrados em 2023. As informações são do EuroNews.

Leia mais:

Na luta contra o dano causado por deepfakes, a solução parece ser usar IA contra IA (Imagem: Gumbariya/Shutterstock)

IA que distingue conteúdo falso

Para conter a ameaça, pesquisadores têm treinado IAs para reconhecer sinais sutis que distinguem conteúdo falso do real.

Métodos incluem a análise de padrões visuais e vocais. Um sistema da empresa Pindrop, por exemplo, consegue identificar clonagens de voz em tempo real com base em milhões de pontos de dados.

A partir de 1º de agosto, a Lei de IA da UE exigirá que todo conteúdo gerado por IA, incluindo deepfakes, seja rotulado. Para os especialistas, essa transparência é essencial para manter a confiança na mídia digital.

Tecnologias avançadas usando IA podem ser essenciais para identificar vídeos falsos e conter a desinformação digital – Imagem: Wright Studio/Shutterstock

Colaboração para o Olhar Digital

Leandro Criscuolo é jornalista formado pela Faculdade Cásper Líbero. Já atuou como copywriter, analista de marketing digital e gestor de redes sociais. Atualmente, escreve para o Olhar Digital.

Bruno Capozzi é jornalista formado pela Faculdade Cásper Líbero e mestre em Ciências Sociais pela PUC-SP, tendo como foco a pesquisa de redes sociais e tecnologia.