AiotAiot


Enxames de bots de IA ameaçam a democracia em ano eleitoral

Pesquisadores afirmam que as tecnologias que disseminam desinformação deverão ser usadas em larga escala por alguns candidatos

29/01/2026

Enxames de bots de IA ameaçam a democracia em ano eleitoral
Tamanho fonte

Por Ricardo Marques da Silva

“Enxames de IA” maliciosos e difíceis de detectar que se proliferam nas mídias sociais e nos grupos de mensagens e espalham notícias falsas representam uma nova ameaça disruptiva à democracia em períodos de eleições majoritárias. Esse alerta foi feito por um consórcio mundial que reúne pesquisadores de alto nível de IA e ciências sociais de universidades europeias e norte-americanas, como Berkeley, Harvard, Oxford, Cambridge e Yale, e até vencedores do Nobel.

“Ferramentas generativas podem expandir a produção de propaganda sem sacrificar a credibilidade e criar, com baixo custo, falsidades mais semelhantes à linguagem humana do que aquelas escritas por humanos. Técnicas destinadas a refinar o raciocínio da IA, como o estímulo à cadeia de pensamento, podem ser usadas para gerar falsidades mais convincentes. Impulsionados por essas capacidades, surge uma ameaça disruptiva: enxames de agentes de IA colaborativos e maliciosos”, afirmou o grupo em um estudo publicado no dia 22 na revista científica Science.

Uma das preocupações objetivas dos pesquisadores é a eleição presidencial que ocorrerá em 2028 nos Estados Unidos, mas o risco se estende a todas as demais democracias, já que um candidato com perfil autocrata pode usar recursos de IA em larga escala para manipular o voto ou reverter os resultados. Como contrapartida, no artigo da Science os autores destacam a necessidade de uma ação global coordenada para combater a desinformação, por meio de medidas como “scanners de enxames” e conteúdo com marca d’água, com base em fatos ocorridos nas eleições de 2024 em Taiwan, Índia e Indonésia.

Daniel Thilo Schroeder, pesquisador do instituto Sintef, de Oslo, que vem simulando enxames em condições de laboratório, afirmou: “É assustador como é fácil manipular o código dessas ferramentas de IA e criar pequenos exércitos de bots que conseguem navegar em plataformas de mídia social online e e-mails e disseminar desinformação”.

Jonas Kunst, professor de comunicação na BI Business School da Noruega, acrescentou: “Se esses bots começarem a evoluir para um coletivo e trocarem informações para resolver um problema, como analisar uma comunidade e encontrar pontos fracos, então a coordenação aumentará sua precisão e sua eficiência. Essa é uma ameaça realmente séria que prevemos que irá se materializar”.

Entrevistado pelo jornal britânico The Guardian, Michael Wooldridge, professor de fundamentos de IA na Universidade de Oxford, destacou: “Não é algo fantasioso. Acho perfeitamente plausível que pessoas mal-intencionadas tentem mobilizar exércitos virtuais de agentes de IA com grandes modelos de linguagem para interferir em eleições e manipular a opinião pública – por exemplo, visando um grande número de indivíduos nas redes sociais e outras mídias eletrônicas. Tecnicamente, é perfeitamente viável”.

TAGS

#ameaça disruptiva#ano eleitoral#bots de IA#democracia#desinformação#fake news#grandes modelos de linguagem#notícias falsas

COMPARTILHE

Notícias Relacionadas