AiotAiot


Respostas dos bots de IA estão cada vez menos confiáveis

Órgão de vigilância da desinformação diz que a redução dos sistemas de verificação das plataformas agravou o problema

12/06/2025

Respostas dos bots de IA estão cada vez menos confiáveis
Tamanho fonte

Por Ricardo Marques da Silva

“E aí, @Grok, isso é verdade?”: essa pergunta vem se tornando cada vez mais comum na plataforma X, de Elon Musk, quando o usuário faz uma busca instantânea por desmentidos nas redes sociais. O problema é que as respostas costumam estar repletas de desinformação, na medida em que os chatbots de IA como o ChatGPT da OpenAI, o Gemini do Google e o próprio Grok, da xAI, revelam uma tendência crescente de divulgar falsidades.

Essa questão foi abordada nesta semana em uma reportagem distribuída pela agência de notícias francesa AFP, que atualmente mantém um programa de verificação de fatos no Facebook em 26 idiomas, em países da América Latina, da União Europeia e da Ásia. De acordo com a matéria, a IA não consegue distinguir a verdade da mentira.

Entre os exemplos citados estão fatos relacionados ao recente conflito de quatro dias entre a Índia e o Paquistão, quando usuários de redes sociais recorreram ao Grok para confirmar algumas informações. Como resultado, receberam mais falsidades, como a identificação de um vídeo antigo do aeroporto de Cartum, no Sudão, como se fosse um ataque com mísseis indianos à base aérea de Nur Khan, no Paquistão. Imagens de um prédio em chamas no Nepal também foram identificadas erroneamente como a provável resposta militar do Paquistão aos ataques indianos.

O Grok já vinha sendo questionado pela decisão de inserir a informação de que estaria ocorrendo um “genocídio branco” na África do Sul, uma comprovada teoria da conspiração criada pela extrema-direita supremacista do país que, não por coincidência, é a terra natal de Elon Musk.

Em entrevista à AFP, a pesquisadora McKenzie Sadeghi, do órgão de vigilância da desinformação NewsGuard, afirmou: “A crescente dependência do Grok para a comprovação de notícias ocorre num momento em que a xAI e outras grandes empresas de tecnologia reduziram seus investimentos em verificadores de fatos humanos. Mas uma pesquisa que fizemos mostrou repetidamente que chatbots de IA não são fontes confiáveis ​​de notícias e informações, especialmente quando se trata de eventos atuais”.

A pesquisa à qual Sadeghi se referiu mostrou que 10 dos principais chatbots de IA são propensos a repetir falsidades, entre as quais narrativas de desinformação russas. “Em um estudo recente com oito ferramentas de busca com tecnologia de IA, o Centro Tow de Jornalismo Digital da Universidade de Columbia descobriu que os chatbots eram geralmente ruins em rejeitar perguntas que não conseguiam responder com precisão, oferecendo, em vez disso, respostas incorretas ou especulativas”, acrescentou a reportagem da AFP.

A agência foi mais longe e disse que quando seus verificadores no Uruguai perguntaram ao Gemini a respeito de uma imagem de uma mulher gerada por IA, o bot não apenas confirmou sua autenticidade, mas também inventou detalhes sobre sua identidade e do lugar onde a foto teria sido feita. Da mesma maneira, um vídeo criado por IA de uma sucuri gigante nadando no rio Amazonas foi considerado autêntico pelo Grok, que chegou a citar supostas expedições científicas para sustentar a afirmação.

Angie Holan, diretora da Rede Internacional de Verificação de Fatos, também entrevistada pela AFP, acrescentou: “Vimos como os assistentes de IA podem falsificar resultados ou dar respostas tendenciosas depois que programadores humanos modificaram especificamente suas instruções. Estou particularmente preocupada com a forma como o Grok lidou mal com solicitações sobre assuntos altamente sensíveis, após ter sido instruído a fornecer respostas pré-autorizadas”.

TAGS

#bots#ChatGPT#conspiração#desinformação#Gemini#genocídio branco#Grok#mentira#verdade#verificação de fatos

COMPARTILHE

Notícias Relacionadas