Tudo sobre Inteligência Artificial
ver mais
Uma nova frente de segurança digital adota a estratégia de “combater fogo com fogo” para frear o avanço de fraudes com uso de inteligência artificial (IA) envolvido. Startups especializadas, como Reality Defender, Pindrop e GetReal, desenvolvem seus próprios deepfakes e os usam em treinamentos de algoritmos para torná-los capazes de identificar fraudes em áudio e vídeo.
Continua após a publicidade
O foco principal é blindar grandes corporações contra golpes que usam IA para clonar vozes e rostos e, no fim, autorizar transações financeiras ilícitas, segundo o site The Verge.
O surgimento desse setor é uma resposta direta à popularização de ferramentas de IA generativa, que tornaram a criação de conteúdos falsos um processo praticamente sem barreiras técnicas.
Atualmente, o maior impacto dessas tecnologias de detecção ocorre no ambiente corporativo, no qual golpes aplicados contra empresas podem resultar em prejuízos superiores a US$ 1 milhão (aproximadamente R$ 5 milhões) numa única transferência fraudulenta.
(Para quem não sabe: Deepfake é quando se usa IA para criar áudios e imagens falsas extremamente realistas para fingir ser outra pessoa.)
Treinamento usa IA para deixar IA mais capaz de distinguir real do manipulado
A Reality Defender usa o que chama de “modelo baseado em inferência” para fazer as detecções.
O sistema funciona sob uma lógica de “aluno e professor”: os desenvolvedores apresentam uma vasta quantidade de arquivos reais e manipulados para que a IA aprenda a categorizar as diferenças.
Segundo o CTO da empresa, Alex Lisle, esse método permite que o software identifique falhas e padrões inconsistentes que seriam invisíveis para o olho ou ouvido humano.
Um dos maiores desafios técnicos da “corrida armamentista” de deepfakes é o equilíbrio entre velocidade e qualidade – Imagem: FAMILY STOCK/Shutterstock
Testes práticos indicam que, embora a tecnologia de voz ainda enfrente dificuldades para enganar familiares próximos, que possuem referências auditivas muito íntimas, ela já é eficaz o suficiente para ludibriar colegas de trabalho ou sistemas bancários.
Para você ter ideia: em experimentos de laboratório, foram necessários apenas nove segundos de áudio e dados coletados em redes sociais para criar um agente de IA convincente o suficiente para manter diálogos em tempo real.
Um dos maiores desafios técnicos dessa “corrida armamentista” digital é o equilíbrio entre velocidade e qualidade. Para que um deepfake de áudio responda instantaneamente numa ligação, ele costuma sacrificar a nitidez sonora.
Por outro lado, modelos de alta fidelidade, que soam quase idênticos ao original, ainda exigem um tempo de processamento maior para serem gerados, o que dificulta sua aplicação em interações ao vivo.
Fraudes e ‘máscaras digitais’ ameaçam segurança de grandes empresas
O cenário de crimes cibernéticos atingiu um nível “industrial“, com fraudadores utilizando modelos de linguagem para mapear estruturas organizacionais inteiras.
Criminosos extraem nomes e cargos de redes profissionais como o LinkedIn e coletam amostras de voz no TikTok ou Facebook para criar um banco de dados de cada funcionário. Com essas informações, executam ataques em massa, contatando colaboradores de diversos setores.
Continua após a publicidade
Uma das startups identificou o uso crescente de deepfakes “máscaras digitais” em processos seletivos e reuniões via Zoom – Imagem: MDV Edwards/Shutterstock
A Pindrop identificou o uso crescente de “máscaras digitais” em processos seletivos e reuniões via Zoom. Nesses casos, o golpista usa a IA para alterar suas feições em tempo real, assumindo outra identidade. E táticas simples de verificação, como pedir para a pessoa passar a mão na frente do rosto para causar uma falha visual na IA, já não funcionam.
Os modelos atuais são tão sofisticados que conseguem renderizar mãos e movimentos complexos sem distorções, o que torna a manipulação praticamente imperceptível aos olhos.
Como o cidadão comum ainda não tem acesso fácil a softwares de detecção, o futuro dessa tecnologia deve seguir o caminho dos antivírus.
Especialistas consultados pelo The Verge preveem que a proteção contra deepfakes será integrada diretamente em navegadores e provedores de e-mail.
Continua após a publicidade
Assim, arquivos e comunicações seriam escaneados automaticamente em busca de sinais de manipulação antes mesmo de chegarem ao usuário final. Seria uma camada de defesa nativa contra a desinformação.
Pedro Spadoni
Pedro Spadoni é jornalista formado pela Universidade Metodista de Piracicaba. Já escreveu para sites, revistas e jornal.
Ver todos os artigos →
Bruno Capozzi
Bruno Capozzi é jornalista, mestre em Ciências Sociais e editor executivo do OD.
Ver todos os artigos →
Tags:
DEEPFAKES
Inteligência Artificial
Conteúdo reproduzido originalmente em: Olhar Digital por Pedro Spadoni
