AiotAiot


Ataque ao Irã foi orientado por IA “banida” por Trump

Polêmica envolve o modelo Claude, da Anthropic, uma “empresa da esquerda radical” na descrição do presidente norte-americano

03/03/2026

Ataque ao Irã foi orientado por IA “banida” por Trump
Tamanho fonte

Por Ricardo Marques da Silva

Os ataques ao Irã desencadeados pelos Estados Unidos e por Israel na madrugada de sábado foram orientados pelo modelo de IA Claude, da Anthropic, que também ajudou a selecionar alvos e a fazer simulações de campo de batalha. O que mais surpreendeu foi o fato de, horas antes, o presidente Donald Trump ter anunciado em sua rede social Truth o rompimento de todos os laços com a Anthropic e a classificado como “uma empresa de IA da esquerda radical dirigida por pessoas que não têm ideia do que é o mundo real”.

A informação a respeito do uso do Claude foi divulgada em primeira mão pelo Wall Street Journal e pelo site de notícias Axios e reproduzida por veículos de vários países. O jornal britânico The Guardian, por exemplo, afirmou que o ataque norte-americano e israelense ao Irã “expôs pela primeira vez a extensão do papel dos sistemas algorítmicos em decisões militares de grande escala”.

A polêmica havia se iniciado em janeiro, quando vazou a informação de que o Claude foi usado pelas forças armadas dos Estados Unidos na invasão da Venezuela e na captura do presidente Nicolás Maduro. Logo em seguida a Anthropic protestou com veemência contra a iniciativa, citando seus termos de uso, que não permitem a aplicação do Claude para fins violentos, desenvolvimento de armas ou vigilância.

A partir daí, as relações de Trump e do Pentágono com a Anthropic se deterioram, a ponto de Pete Hegseth, secretário de Defesa norte-americano, acusar a empresa de “arrogância e traição” e afirmar que os militares do seu país “jamais serão reféns dos caprichos ideológicos das grandes empresas de tecnologia”. Hegseth, porém, admitiu que era impossível desvincular rapidamente os sistemas militares da ferramenta de IA, considerando sua ampla utilização, e disse que a Anthropic continuaria a prestar serviços “por um período não superior a seis meses, para permitir uma transição tranquila para um serviço melhor e mais patriótico”.

De acordo com The Guardian, esse vácuo de poder teria sido rapidamente preenchido pela rival OpenAI, com a intenção de assumir o protagonismo na área militar nos Estados Unidos. “Sam Altman, CEO da OpenAI, afirmou ter chegado a um acordo com o Pentágono para o uso de suas ferramentas, incluindo o ChatGPT, em sua rede secreta”, afirmou o jornal.

Ao mesmo tempo, surgiram relatos baseados em fontes anônimas sugerindo que a IA foi usada pelo governo dos Estados Unidos até mesmo na construção da justificativa política para o ataque ao Irã. Em um artigo publicado ontem, dia 2, a Folha de S.Paulo disse que o argumento oficial apresentado pelos governos norte-americano e israelense para justificar os ataques o foi um relatório da Agência Internacional de Energia Atômica (AIEA) segundo o qual o Irã estaria próximo de produzir uma bomba atômica.

“Relatos posteriores afirmaram que esse documento teria sido em grande parte construído ou orientado por sistemas de inteligência artificial”, disse a Folha. “O relatório se baseava em inferências estatísticas, não em provas diretas, marcando possivelmente o primeiro caso de uma guerra iniciada com forte apoio de projeções de IA”, acrescentou o artigo.

TAGS

#Anthropic#ataque ao Irã#Claude

COMPARTILHE

Notícias Relacionadas