CEO de streaming de música cria um observatório da guerra
World Monitor é um projeto paralelo lançado por Elie Habib, do Anghami, para acompanhar os conflitos no Irã e no Oriente Médio
12/03/202613/03/2026

Por Ricardo Marques da Silva
Fundada em 2021 pelos irmãos Daniela e Dario Amodei, ex-funcionários da OpenAI, a Anthropic surgiu como “uma empresa de interesse público dedicada a garantir os benefícios da inteligência artificial e mitigar seus riscos”, como está expresso em sua declaração de princípios. Tornou-se conhecida quando criou o modelo de IA Claude, que nesta primeira quinzena de março foi o aplicativo mais baixado na App Store nos Estados Unidos, superando o ChatGPT, depois de se tornar alvo do Pentágono, na esteira dos ataques ao Irã.
Trata-se de uma disputa exemplar, na medida em que se concentra no uso responsável da IA contrapondo-se ao desejo de poder absoluto do governo de Donald Trump, que pôs a Anthropic numa lista negra e a classificou como de risco à segurança nacional e à cadeia de suprimentos e ordenou que o governo parasse de usar o Claude. No último capítulo dessa batalha, na segunda-feira, dia 9, a Anthropic entrou com um processo contra o Pentágono.
A ofensiva contra a Anthropic foi assumida pelo secretário de Defesa, Pete Hegseth, que praticamente baniu a empresa do mercado público e a proibiu de fazer negócios com os fornecedores do Pentágono, entre os quais a Microsoft e a Amazon. A Anthropic reagiu e, em um comunicado, afirmou: “Essas ações são sem precedentes e ilegais. A Constituição não permite que o governo use seu enorme poder para punir uma empresa por sua liberdade de expressão”.
Na ação judicial, apresentada em um tribunal federal na Califórnia, a empresa requereu que fossem anuladas as restrições impostas pelo Pentágono. Entre outras reações, no mesmo dia um grupo de 37 pesquisadores e engenheiros da OpenAI e do Google apresentou um parecer jurídico em apoio à Anthropic, argumentando que a punição poderia desencorajar especialistas em IA de debaterem abertamente os riscos e benefícios da tecnologia. “Ao silenciar um laboratório, o governo reduz o potencial da indústria para inovar em soluções”, afirmaram.
Em seu site oficial, a Anthropic explicou assim a iniciativa do governo Trump: “Essa ação ocorre após meses de negociações que chegaram a um impasse em relação a duas exceções que solicitamos para o uso legal do nosso modelo de IA, Claude: a vigilância doméstica em massa de cidadãos americanos e armas totalmente autônomas”.
Em seguida, a empresa detalhou os motivos da recusa em permitir que o governo usasse o Claude para fins militares e em vigilância: “Mantivemos nossas exceções por dois motivos. Primeiro, não acreditamos que os modelos de IA de ponta atuais sejam confiáveis o suficiente para serem usados em armas totalmente autônomas. Permitir que os modelos atuais sejam usados dessa forma colocaria em risco os militares e civis americanos. Segundo, acreditamos que a vigilância doméstica em massa de cidadãos americanos constitui uma violação de direitos fundamentais”.
Atualmente, o valor de mercado da Anthropic é estimado em US$ 380 bilhões, e analistas dizem que o confronto com o governo Trump é uma ameaça crítica, com grande potencial de impacto em cadeia para a empresa e para o Claude nos próximos meses. Apesar disso, a direção da Anthropic afirmou no comunicado: “Nenhuma intimidação ou punição por parte do Departamento de Guerra mudará nossa posição sobre vigilância doméstica em massa ou armas totalmente autônomas”. E Dario Amodei disse em uma entrevista: “O Pentágono não gosta de nós porque não fizemos elogios ao estilo ditatorial de Trump”.
#Anthropic#armas totalmente autônomas#IA Claude#inteligência artificial#Pentágono#uso responsável da IA#vigilância doméstica em massa

World Monitor é um projeto paralelo lançado por Elie Habib, do Anghami, para acompanhar os conflitos no Irã e no Oriente Médio
12/03/2026
Acordo prevê que os fundadores Matt Schlicht e Ben Parr passem a trabalhar na divisão de pesquisas Meta Superintelligence Labs
11/03/2026
Modelos de código aberto como o Kimi K2.5, o Qwen e o DeepSeek igualam desempenho dos rivais a uma fração do custo
10/03/2026