AiotAiot


O que levou a Anthropic a ir à justiça contra o Pentágono

Processo foi iniciado depois da ofensiva movida contra a empresa pelo governo Trump, relacionada ao uso de IA para fins militares e em vigilância

13/03/2026

O que levou a Anthropic a ir à justiça contra o Pentágono
Tamanho fonte

Por Ricardo Marques da Silva

Fundada em 2021 pelos irmãos Daniela e Dario Amodei, ex-funcionários da OpenAI, a Anthropic surgiu como “uma empresa de interesse público dedicada a garantir os benefícios da inteligência artificial e mitigar seus riscos”, como está expresso em sua declaração de princípios. Tornou-se conhecida quando criou o modelo de IA Claude, que nesta primeira quinzena de março foi o aplicativo mais baixado na App Store nos Estados Unidos, superando o ChatGPT, depois de se tornar alvo do Pentágono, na esteira dos ataques ao Irã.

Trata-se de uma disputa exemplar, na medida em que se concentra no uso responsável da IA contrapondo-se ao desejo de poder absoluto do governo de Donald Trump, que pôs a Anthropic numa lista negra e a classificou como de risco à segurança nacional e à cadeia de suprimentos e ordenou que o governo parasse de usar o Claude. No último capítulo dessa batalha, na segunda-feira, dia 9, a Anthropic entrou com um processo contra o Pentágono.

A ofensiva contra a Anthropic foi assumida pelo secretário de Defesa, Pete Hegseth, que praticamente baniu a empresa do mercado público e a proibiu de fazer negócios com os fornecedores do Pentágono, entre os quais a Microsoft e a Amazon. A Anthropic reagiu e, em um comunicado, afirmou: “Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua liberdade de expressão”.

Na ação judicial, apresentada em um tribunal federal na Califórnia, a empresa requereu que fossem anuladas as restrições impostas pelo Pentágono. Entre outras reações, no mesmo dia um grupo de 37 pesquisadores e engenheiros da OpenAI e do Google apresentou um parecer jurídico em apoio à Anthropic, argumentando que a punição poderia desencorajar especialistas em IA de debaterem abertamente os riscos e benefícios da tecnologia. “Ao silenciar um laboratório, o governo reduz o potencial da indústria para inovar em soluções”, afirmaram.

Em seu site oficial, a Anthropic explicou assim a iniciativa do governo Trump: “Essa ação ocorre após meses de negociações que chegaram a um impasse em relação a duas exceções que solicitamos para o uso legal do nosso modelo de IA, Claude: a vigilância doméstica em massa de cidadãos americanos e armas totalmente autônomas”.

Em seguida, a empresa detalhou os motivos da recusa em permitir que o governo usasse o Claude para fins militares e em vigilância: “Mantivemos nossas exceções por dois motivos. Primeiro, não acreditamos que os modelos de IA de ponta atuais sejam confiáveis ​​o suficiente para serem usados ​​em armas totalmente autônomas. Permitir que os modelos atuais sejam usados ​​dessa forma colocaria em risco os militares e civis americanos. Segundo, acreditamos que a vigilância doméstica em massa de cidadãos americanos constitui uma violação de direitos fundamentais”.

Atualmente, o valor de mercado da Anthropic é estimado em US$ 380 bilhões, e analistas dizem que o confronto com o governo Trump é uma ameaça crítica, com grande potencial de impacto em cadeia para a empresa e para o Claude nos próximos meses. Apesar disso, a direção da Anthropic afirmou no comunicado: “Nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas”. E Dario Amodei disse em uma entrevista: “O Pentágono não gosta de nós porque não fizemos elogios ao estilo ditatorial de Trump”.

TAGS

#Anthropic#armas totalmente autônomas#IA Claude#inteligência artificial#Pentágono#uso responsável da IA#vigilância doméstica em massa

COMPARTILHE

Notícias Relacionadas