Siga o Olhar Digital no Google Discover
Tudo sobre Inteligência Artificial
A disputa entre a Anthropic e o Departamento de Defesa dos Estados Unidos reacendeu um debate antigo no setor de tecnologia: até que ponto empresas do Vale do Silício devem permitir que suas ferramentas sejam utilizadas em aplicações militares?
Nos últimos dias, o conflito entre a desenvolvedora e o governo americano se intensificou após a Anthropic processar o Pentágono, alegando que sua inclusão em uma lista de “risco à segurança nacional” viola direitos garantidos pela Primeira Emenda da Constituição dos EUA. A ação judicial ocorre depois de meses de impasse entre as duas partes sobre as condições de uso do Claude.
No centro da disputa está a recusa da Anthropic em autorizar determinados usos de seus modelos de IA, especialmente em sistemas de vigilância em massa e em armamentos totalmente autônomos capazes de tomar decisões letais.
Segundo a empresa, aceitar a exigência do governo de permitir “qualquer uso legal” de sua tecnologia comprometeria princípios de segurança adotados desde sua fundação e poderia abrir espaço para abusos.
A posição da Anthropic colocou em evidência um tema que acompanha o avanço da inteligência artificial: quais limites éticos devem existir quando tecnologias comerciais passam a integrar operações militares?
Para Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da Hugging Face, a disputa atual não é entre empresas que apoiam ou rejeitam o uso militar da tecnologia. Na avaliação dela, quem busca encontrar “mocinhos e vilões” nesse debate dificilmente encontrará uma separação tão evidente.

Mudança de postura no Vale do Silício sobre IA militar
A tensão ocorre em um momento em que as grandes empresas de tecnologia têm se aproximado cada vez mais do setor de defesa. Esse movimento ganhou força durante o governo de Donald Trump, que tem incentivado o uso de inteligência artificial em órgãos federais e ampliado investimentos em capacidades militares.
A possibilidade de contratos lucrativos e de longo prazo com o governo também contribuiu para esse alinhamento. Além disso, o avanço tecnológico da China e o aumento global dos gastos militares passaram a influenciar decisões estratégicas de empresas do setor.
Essa realidade contrasta com a postura adotada há menos de uma década por parte da indústria. Um exemplo é o do Projeto Maven, do Google:
- Em 2018, milhares de funcionários do Google protestaram contra a participação da empresa no Projeto Maven, um programa do Departamento de Defesa voltado à análise de imagens captadas por drones militares;
- Na época, mais de 3 mil trabalhadores da companhia assinaram uma carta aberta afirmando que o Google não deveria se envolver em projetos ligados à guerra;
- Após a mobilização interna, a empresa decidiu não renovar o contrato e publicou diretrizes que proibiam o desenvolvimento de tecnologias capazes de causar danos diretos a pessoas.
Com o passar dos anos, porém, essa postura foi sendo flexibilizada. O Google posteriormente removeu de suas políticas parte da linguagem que restringia o desenvolvimento de tecnologias militares e passou a firmar novos acordos que permitem o uso de suas ferramentas pelas forças armadas.
Recentemente, a empresa anunciou que disponibilizará o Gemini para apoiar o desenvolvimento de agentes de IA em projetos militares.
Outras empresas seguiram um caminho semelhante. A OpenAI, que anteriormente proibia o acesso de forças armadas aos seus modelos, flexibilizou sua política a partir de 2024. A empresa, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o Departamento de Defesa para integrar tecnologias de IA a sistemas militares.
No mesmo dia em que o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco para a cadeia de suprimentos do governo, a OpenAI firmou um novo acordo permitindo que sua tecnologia seja usada em projetos militares confidenciais.
Enquanto isso, companhias focadas diretamente em tecnologia de defesa, como Palantir e Anduril, transformaram a colaboração com o Pentágono em parte central de seus negócios.

A posição da Anthropic
Mesmo com o confronto jurídico com o governo, a Anthropic não se posiciona como uma empresa contrária à colaboração com o setor militar.
O cofundador e CEO da companhia, Dario Amodei, afirmou recentemente que a empresa compartilha muitos objetivos com o Departamento de Defesa. Segundo ele, a Anthropic apoia o uso da inteligência artificial para defesa nacional, desde que certas linhas não sejam ultrapassadas.
Leia mais:
- Pentágono explica por que vê Claude, IA da Anthropic, como risco
- Anthropic desafia Pentágono: a briga judicial que pode mudar o futuro da IA
- Claude IA: 4 coisas que o chatbot pode fazer que o ChatGPT não consegue
Apesar das restrições defendidas pela empresa, documentos judiciais indicam que o governo dos Estados Unidos já utiliza o modelo Claude em diversas atividades militares. Entre elas estariam análise de ameaças, processamento de documentos confidenciais e operações relacionadas ao campo de batalha.
O Olhar Digital fez uma linha do tempo do conflito entre a Anthropic e o Pentágono. Você pode acessá-la neste link.
(O texto usou informações do jornal The Guardian.)
