Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares

Siga o Olhar Digital no Google Discover

Inteligência artificial

Tudo sobre Inteligência Artificial

A disputa entre a Anthropic e o Departamento de Defesa dos Estados Unidos reacendeu um debate antigo no setor de tecnologia: até que ponto empresas do Vale do Silício devem permitir que suas ferramentas sejam utilizadas em aplicações militares?

Nos últimos dias, o conflito entre a desenvolvedora e o governo americano se intensificou após a Anthropic processar o Pentágono, alegando que sua inclusão em uma lista de “risco à segurança nacional” viola direitos garantidos pela Primeira Emenda da Constituição dos EUA. A ação judicial ocorre depois de meses de impasse entre as duas partes sobre as condições de uso do Claude.

No centro da disputa está a recusa da Anthropic em autorizar determinados usos de seus modelos de IA, especialmente em sistemas de vigilância em massa e em armamentos totalmente autônomos capazes de tomar decisões letais.

Segundo a empresa, aceitar a exigência do governo de permitir “qualquer uso legal” de sua tecnologia comprometeria princípios de segurança adotados desde sua fundação e poderia abrir espaço para abusos.

A posição da Anthropic colocou em evidência um tema que acompanha o avanço da inteligência artificial: quais limites éticos devem existir quando tecnologias comerciais passam a integrar operações militares?

Para Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da Hugging Face, a disputa atual não é entre empresas que apoiam ou rejeitam o uso militar da tecnologia. Na avaliação dela, quem busca encontrar “mocinhos e vilões” nesse debate dificilmente encontrará uma separação tão evidente.

Montagem com fotos de Sam Altman, Pete Hegseth e Dario Amodei
Da esquerda para a direita: CEO da OpenAI, Sam Altman; Secretário de Defesa dos EUA, Pete Hegseth; e CEO da Anthropic, Dario Amodei (Imagem: FotoField e Joshua Sukoff – Shutterstock / Reprodução – TechCrunch)

Mudança de postura no Vale do Silício sobre IA militar

A tensão ocorre em um momento em que as grandes empresas de tecnologia têm se aproximado cada vez mais do setor de defesa. Esse movimento ganhou força durante o governo de Donald Trump, que tem incentivado o uso de inteligência artificial em órgãos federais e ampliado investimentos em capacidades militares.

A possibilidade de contratos lucrativos e de longo prazo com o governo também contribuiu para esse alinhamento. Além disso, o avanço tecnológico da China e o aumento global dos gastos militares passaram a influenciar decisões estratégicas de empresas do setor.

Essa realidade contrasta com a postura adotada há menos de uma década por parte da indústria. Um exemplo é o do Projeto Maven, do Google:

  • Em 2018, milhares de funcionários do Google protestaram contra a participação da empresa no Projeto Maven, um programa do Departamento de Defesa voltado à análise de imagens captadas por drones militares;
  • Na época, mais de 3 mil trabalhadores da companhia assinaram uma carta aberta afirmando que o Google não deveria se envolver em projetos ligados à guerra;
  • Após a mobilização interna, a empresa decidiu não renovar o contrato e publicou diretrizes que proibiam o desenvolvimento de tecnologias capazes de causar danos diretos a pessoas.

Com o passar dos anos, porém, essa postura foi sendo flexibilizada. O Google posteriormente removeu de suas políticas parte da linguagem que restringia o desenvolvimento de tecnologias militares e passou a firmar novos acordos que permitem o uso de suas ferramentas pelas forças armadas.

Recentemente, a empresa anunciou que disponibilizará o Gemini para apoiar o desenvolvimento de agentes de IA em projetos militares.

Outras empresas seguiram um caminho semelhante. A OpenAI, que anteriormente proibia o acesso de forças armadas aos seus modelos, flexibilizou sua política a partir de 2024. A empresa, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o Departamento de Defesa para integrar tecnologias de IA a sistemas militares.

No mesmo dia em que o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco para a cadeia de suprimentos do governo, a OpenAI firmou um novo acordo permitindo que sua tecnologia seja usada em projetos militares confidenciais.

Enquanto isso, companhias focadas diretamente em tecnologia de defesa, como Palantir e Anduril, transformaram a colaboração com o Pentágono em parte central de seus negócios.

Maioria das grandes empresas de tecnologia na corrida de IA já tem contratos com o Pentágono (Imagem: Keith J Finks/Shutterstock)

A posição da Anthropic

Mesmo com o confronto jurídico com o governo, a Anthropic não se posiciona como uma empresa contrária à colaboração com o setor militar.

O cofundador e CEO da companhia, Dario Amodei, afirmou recentemente que a empresa compartilha muitos objetivos com o Departamento de Defesa. Segundo ele, a Anthropic apoia o uso da inteligência artificial para defesa nacional, desde que certas linhas não sejam ultrapassadas.

Leia mais:

Apesar das restrições defendidas pela empresa, documentos judiciais indicam que o governo dos Estados Unidos já utiliza o modelo Claude em diversas atividades militares. Entre elas estariam análise de ameaças, processamento de documentos confidenciais e operações relacionadas ao campo de batalha.

O Olhar Digital fez uma linha do tempo do conflito entre a Anthropic e o Pentágono. Você pode acessá-la neste link.

(O texto usou informações do jornal The Guardian.)