Juruá Informativo

Sora 2: avanços em vídeos de IA levantam preocupações sobre desinformação

Sora 2: avanços em vídeos de IA levantam preocupações sobre desinformação

Tudo sobre Inteligência Artificial

Tudo sobre OpenAI

A OpenAI apresentou, nesta semana, o Sora 2, um novo modelo de inteligência artificial (IA) capaz de gerar vídeos hiper-realistas a partir de simples comandos de texto ou imagens. A ferramenta inclui recursos de visuais detalhados, fala, efeitos sonoros e física aprimorada, permitindo a criação de clipes que impressionam pelo realismo.

Entre as novidades, está o aplicativo social baseado no Sora 2, semelhante ao TikTok, que permite a produção e o compartilhamento de conteúdos curtos gerados por IA. O app também conta com uma função de cameo, que possibilita inserir a própria imagem em cenas ou utilizar o rosto de outros usuários, desde que autorizem o uso de sua imagem.

Apesar do apelo criativo, o potencial do Sora 2 levanta preocupações significativas. Nos primeiros três dias após o lançamento, o aplicativo foi usado para gerar vídeos de fraude eleitoral, prisões de imigrantes, protestos, crimes, explosões em cidades e invasões domiciliares — nenhum desses eventos de fato aconteceu.

Segundo especialistas ouvidos pelo The New York Times, o avanço coloca o Sora, assim como outras ferramentas semelhantes, como o Veo 3 do Google, em um patamar perigoso para a propagação de desinformação.

Imagem mostra logo da Open AI e do Sora 2
Avanço coloca o Sora, assim como outras ferramentas semelhantes, em patamar perigoso para a propagação de desinformação. (Imagem: Divulgação/Open AI)

O professor Hany Farid, da Universidade da Califórnia em Berkeley, alertou: “É preocupante para os consumidores que todos os dias estão expostos a não sei quantas dessas peças de conteúdo. Eu me preocupo com a nossa democracia. Eu me preocupo com a nossa economia. Eu me preocupo com as nossas instituições”.

Testes do Sora são eficazes?

Leia mais:

Sam Altman foi retratado como um ladrão em um dos vídeos de sua própria ferramenta (Imagem: jamesonwu1972/Shutterstock)

Resultados geram preocupação

Especialistas temem que a qualidade das produções intensifique o chamado “dividendo do mentiroso”, situação em que pessoas podem desacreditar de registros reais alegando que se tratam de falsificações digitais. “Era relativamente difícil falsificar, e agora esse último bastião está morrendo”, disse Lucas Hansen, fundador da organização CivAI.

Já o professor Kristian J. Hammond, da Universidade Northwestern, destacou que o Sora pode ampliar a criação de “realidades fragmentadas”, em que grupos recebem apenas vídeos que reforçam crenças falsas.

Para alguns especialistas, a evolução dos geradores de vídeo coloca em risco a própria noção de evidência visual. O professor Farid reconheceu: “Um ano atrás, mais ou menos, quando eu olhava, eu sabia e, depois, fazia a análise para confirmar a minha avaliação visual. Não consigo mais fazer isso.”

Embora ofereça um vasto campo de inovação criativa, o Sora 2 expõe um dilema entre avanço tecnológico e riscos sociais, alimentando um debate sobre como equilibrar inovação com proteção contra abusos digitais.

App do Sora estreou com tudo na App Store (Imagem: Tada Images/Shutterstock)

Exemplos

A seguir, confira alguns exemplos de vídeos criados com o Sora 2 e que têm potencial para gerar polêmica:

iPhone Fold and Apple Glasses unboxing and first look 😂 pic.twitter.com/FHOsH40LfL

— Ben Geskin (@BenGeskin) October 1, 2025

3. A gorilla at a bustling street food stall in Delhi cooks noodles with bananas on a giant wok. Real footage pic.twitter.com/as27SekWKj

— TechHalla (@techhalla) October 1, 2025

Sora 2 is pretty wild.

People just dropped new insane videos

100% AI

1. CCTV footage of Sam stealing GPUs at Targetpic.twitter.com/RNVcEMoHKU

— Min Choi (@minchoi) October 1, 2025

— Smoke-away (@SmokeAwayyy) October 1, 2025

Sair da versão mobile