Ícone do site Juruá Informativo

Anthropic acusa DeepSeek e outras chinesas de usar Claude para treinar modelos de IA

anthropic-acusa-deepseek-e-outras-chinesas-de-usar-claude-para-treinar-modelos-de-ia

Anthropic acusa DeepSeek e outras chinesas de usar Claude para treinar modelos de IA

Siga o Olhar Digital no Google Discover

Tudo sobre Inteligência Artificial

A corrida global pela liderança no desenvolvimento de inteligência artificial atingiu um novo marco de atrito corporativo e geopolítico. A Anthropic, desenvolvedora do modelo Claude, denunciou nesta segunda-feira (23) o que classificou como “campanhas em escala industrial” de apropriação indevida de sua tecnologia por três grandes empresas chinesas de IA: DeepSeek, Moonshot AI e MiniMax.

De acordo com a reportagem do The Wall Street Journal, o esquema envolveu a criação de cerca de 24.000 contas fraudulentas para extrair sistematicamente as capacidades do modelo americano.

No total, segundo o comunicado da Anthropic, as companhias chinesas teriam realizado mais de 16 milhões de interações com o Claude. O caso vem à tona poucas semanas após a OpenAI, principal rival da Anthropic, enviar um memorando a parlamentares americanos acusando a DeepSeek de utilizar a mesma tática para imitar seus sistemas.

A tática da “destilação” e os alvos do ataque

A estratégia no centro da controvérsia é conhecida no setor como “destilação”. A Anthropic reconhece que o método possui usos legítimos – como a criação de versões menores e eficientes de produtos próprios –, mas ressalta que a prática pode ser explorada de forma ilícita para construir sistemas concorrentes “em uma fração do tempo, e por uma fração do custo”.

A empresa afirmou que os laboratórios estrangeiros miraram especificamente nas “capacidades mais diferenciadas do Claude: raciocínio agêntico, uso de ferramentas e codificação.” A escala e o foco variaram entre as companhias acusadas:

Dados sintéticos: o atalho chinês

O uso de dados sintéticos (gerados por outras IAs) tem sido amplamente adotado na indústria diante da escassez de dados de alta qualidade na internet e do foco em dar aos modelos capacidades proativas (agênticas).

O Wall Street Journal destaca que, quando a DeepSeek ganhou notoriedade no ano passado, surgiram especulações de que a empresa teria usado a destilação para alcançar o nível dos modelos americanos sem ter acesso irrestrito aos chips mais potentes.

Em um artigo de pesquisa atualizado em setembro, a DeepSeek afirmou ter usado exclusivamente páginas da web comuns e e-books no pré-treinamento do seu modelo V3. Contudo, a empresa admitiu que algumas dessas páginas continham “um número significativo de respostas geradas por modelos da OpenAI”, indicando que sua base de conhecimento absorveu dados de outras IAs poderosas de forma indireta. A Moonshot, por sua vez, assumiu o uso de dados sintéticos em um relatório técnico de julho para treinar seu modelo Kimi K2.

Leia também:

Segurança nacional e a guerra dos semicondutores

Além do roubo de propriedade intelectual, a extração massiva levanta alertas em Washington. A Anthropic enfatizou que modelos desenvolvidos por destilação ilícita dificilmente retêm as travas de segurança originais, permitindo que “capacidades perigosas possam proliferar com muitas proteções totalmente removidas”.

“Laboratórios estrangeiros que destilam modelos americanos podem então alimentar essas capacidades desprotegidas em sistemas militares, de inteligência e de vigilância”, declarou a Anthropic, alertando que governos autoritários podem usar a tecnologia para “operações cibernéticas ofensivas, campanhas de desinformação e vigilância em massa.”

Para processar essa imensa quantidade de dados extraídos, no entanto, é necessário um poder computacional massivo. É nesse ponto que as acusações da Anthropic colidem diretamente com as recentes políticas de Washington. No mês passado, a administração Trump flexibilizou os controles de exportação, permitindo formalmente que empresas americanas como a Nvidia voltassem a vender chips avançados de IA (como o H200) para a China.

A Anthropic usou a denúncia para criticar essa medida. A companhia argumentou que a escala de extração realizada por DeepSeek, MiniMax e Moonshot “exige acesso a chips avançados”. No comunicado oficial, a startup defendeu que esses ataques “reforçam a justificativa para controles de exportação: o acesso restrito a chips limita tanto o treinamento direto de modelos quanto a escala da destilação ilícita”.

Dmitri Alperovitch, presidente do think tank Silverado Policy Accelerator e cofundador da CrowdStrike, endossou a gravidade da situação em entrevista ao TechCrunch:

Está claro há algum tempo que parte do motivo do rápido progresso dos modelos chineses de IA tem sido o roubo via destilação de modelos de fronteira dos EUA. Agora sabemos disso como um fato

Isso deve nos dar razões ainda mais convincentes para nos recusarmos a vender quaisquer chips de IA para qualquer uma dessas [empresas], o que apenas as beneficiaria ainda mais.

Representantes da DeepSeek, Moonshot e MiniMax não responderam aos pedidos de comentários do TechCrunch.

Sair da versão mobile