OpenAI é acusada na Índia de violação de direitos autorais
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/202409/11/2023
Por Ricardo Marques
A capacidade de converter textos em imagens que parecem reais pôs a inteligência artificial na mira das organizações que combatem a circulação de material relacionado a abuso sexual infantil (CSAM, na sigla em inglês), entre as quais a Internet Watch Foundation (IWF), que acaba de divulgar um relatório a respeito do tema. Fundada há 25 anos no Reino Unido, a IWF se preocupa especialmente com o potencial da IA generativa e recomenda que sejam adotadas, de imediato, políticas e leis capazes de inibir essa prática.
De acordo com o relatório, no período de um mês foram postadas em um único fórum da dark web 20.254 imagens geradas com recursos de IA. Desse total, 11.108 imagens com mais probabilidade de serem criminosas foram selecionadas para a avaliação de 12 analistas da IWF, que dedicaram 87,5 horas a esse trabalho e concluíram que aproximadamente 3 mil imagens eram ilegais e criminosas.
A IWF, que se especializou em ocorrências na internet, explicou que o conteúdo gerado por IA compreende uma proporção pequena de suas atividades normais, mas destacou que uma das características definidoras dessa tecnologia é seu potencial de crescimento rápido: “Os criminosos podem baixar legalmente tudo o que precisam para gerar essas imagens e, em seguida, produzem quantas imagens quiserem – off-line, sem oportunidade de detecção. A maioria dos CSAM de IA encontrados agora são realistas o suficiente para serem tratados como CSAM reais”.
A organização também acentuou que o CSAM de IA mais convincente é visualmente indistinguível do CSAM real, mesmo para analistas treinados: “A tecnologia de conversão de texto para imagem só melhorará daqui para a frente e representará um novo desafio para a IWF e as agências de aplicação da lei. Existem agora provas razoáveis de que a IA aumentou o potencial de revitimização de vítimas conhecidas de abuso sexual infantil e de vitimização de crianças famosas e de crianças conhecidas dos perpetradores. A IWF encontrou muitos exemplos de imagens geradas por IA apresentando vítimas conhecidas e crianças famosas”, acrescentou.
Em suas conclusões, o relatório disse que o progresso tecnológico tem um enorme potencial para melhorar a vida das pessoas e ainda é cedo para saber se a IA generativa ajuda a promover o abuso sexual infantil, mas alertou: “É necessário resolver agora alguns dos problemas relacionados a imagens proibidas geradas por IA, a fim se serem criados mecanismos contra o crescimento desse tipo de conteúdo no futuro”.
#abuso sexual infantil#dark web#IA generativa#imagens manipuladas#inteligência artificial#pedofilia
Processo foi aberto por uma das principais agências de notícias do país e envolve dados usados no treinamento do ChatGPT
21/11/2024O AIoT Brasil acompanhará de perto um dos mais importantes eventos de tecnologia do mundo, que deverá receber mais de 70 mil participantes
11/11/2024Confira novas profissões que estão surgindo com a inteligência artificial e saiba como se preparar para esse mercado em expansão
05/11/2024