Imagem de Sam Altman gerada por IA repercute na Índia
CEO da OpenAI aparece com camisa de críquete do país e muitos indianos questionaram a razão desse interesse repentino
09/04/202509/11/2023
Por Ricardo Marques
A capacidade de converter textos em imagens que parecem reais pôs a inteligência artificial na mira das organizações que combatem a circulação de material relacionado a abuso sexual infantil (CSAM, na sigla em inglês), entre as quais a Internet Watch Foundation (IWF), que acaba de divulgar um relatório a respeito do tema. Fundada há 25 anos no Reino Unido, a IWF se preocupa especialmente com o potencial da IA generativa e recomenda que sejam adotadas, de imediato, políticas e leis capazes de inibir essa prática.
De acordo com o relatório, no período de um mês foram postadas em um único fórum da dark web 20.254 imagens geradas com recursos de IA. Desse total, 11.108 imagens com mais probabilidade de serem criminosas foram selecionadas para a avaliação de 12 analistas da IWF, que dedicaram 87,5 horas a esse trabalho e concluíram que aproximadamente 3 mil imagens eram ilegais e criminosas.
A IWF, que se especializou em ocorrências na internet, explicou que o conteúdo gerado por IA compreende uma proporção pequena de suas atividades normais, mas destacou que uma das características definidoras dessa tecnologia é seu potencial de crescimento rápido: “Os criminosos podem baixar legalmente tudo o que precisam para gerar essas imagens e, em seguida, produzem quantas imagens quiserem – off-line, sem oportunidade de detecção. A maioria dos CSAM de IA encontrados agora são realistas o suficiente para serem tratados como CSAM reais”.
A organização também acentuou que o CSAM de IA mais convincente é visualmente indistinguível do CSAM real, mesmo para analistas treinados: “A tecnologia de conversão de texto para imagem só melhorará daqui para a frente e representará um novo desafio para a IWF e as agências de aplicação da lei. Existem agora provas razoáveis de que a IA aumentou o potencial de revitimização de vítimas conhecidas de abuso sexual infantil e de vitimização de crianças famosas e de crianças conhecidas dos perpetradores. A IWF encontrou muitos exemplos de imagens geradas por IA apresentando vítimas conhecidas e crianças famosas”, acrescentou.
Em suas conclusões, o relatório disse que o progresso tecnológico tem um enorme potencial para melhorar a vida das pessoas e ainda é cedo para saber se a IA generativa ajuda a promover o abuso sexual infantil, mas alertou: “É necessário resolver agora alguns dos problemas relacionados a imagens proibidas geradas por IA, a fim se serem criados mecanismos contra o crescimento desse tipo de conteúdo no futuro”.
#abuso sexual infantil#dark web#IA generativa#imagens manipuladas#inteligência artificial#pedofilia
CEO da OpenAI aparece com camisa de críquete do país e muitos indianos questionaram a razão desse interesse repentino
09/04/2025Startup sueca já traduziu mais de 900 livros com a tecnologia e os profissionais temem a possibilidade de ficar sem trabalho
08/04/2025Estudo mostra que em fevereiro os brasileiros completaram 468 milhões de acessos, correspondentes a 3,9% do total global
07/04/2025