Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202410/06/2024
Por Ricardo Marques da Silva
Sem autorização ou consentimento, o conjunto de dados modais abertos LAION-5B está utilizando ilegalmente links de fotos pessoais de crianças brasileiras para treinar ferramentas populares de inteligência artificial. E o que é pior: as imagens retiradas da internet permitem a identificação e o rastreamento dos menores de idade, o que envolve uma série de riscos de segurança e privacidade.
A denúncia foi feita nesta segunda-feira, 10 de junho, pela Human Rights Watch, uma organização não governamental com sede nos Estados Unidos e atuação em vários países, entre os quais o Brasil. De acordo com a ONG, as fotos estão sendo transformadas em um grande conjunto de dados que as empresas usam para treinar suas ferramentas de IA, além de servirem para criar deepfakes maliciosos, o que aumenta a possibilidade de exploração e danos.
“A Human Rights Watch encontrou 170 fotos de crianças de pelo menos 10 estados brasileiros: Alagoas, Bahia, Ceará, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo”, explicou a organização. “É provável que esta seja uma subcontagem da quantidade total de dados pessoais de crianças que existem no LAION-5B, uma vez que a Human Rights Watch revisou menos de 0,0001% dos bilhões de imagens e legendas contidas no conjunto de dados”, ressaltou.
Hye Jung Han, pesquisadora de direitos das crianças e integrante da Human Rights Watch, disse que as fotos podem ser roubadas e utilizadas como armas de exploração infantil: “Os governos precisam adotar urgentemente políticas para proteger os dados das crianças do uso indevido dos sistemas de IA. Proteger agora a privacidade dos dados das crianças ajudará a moldar o desenvolvimento ético dessa tecnologia”, afirmou.
De acordo com a Human Rights Watch, os nomes de algumas crianças estão na legenda ou no URL das imagens: “Em muitos casos, as identidades são facilmente rastreáveis, incluindo informações sobre quando e onde a criança estava no momento em que a foto foi feita. Uma das imagens mostra uma menina de 2 anos, com os lábios entreabertos de admiração enquanto ela toca os dedinhos de sua irmã recém-nascida. A legenda e as informações contidas na foto revelam não apenas os nomes das crianças, mas também a localização precisa do hospital catarinense onde o bebê nasceu há nove anos”, explicou a ONG.
A Human Rights Watch afirmou ainda que pelo menos 85 meninas de Alagoas, Minas Gerais, Pernambuco, Rio de Janeiro, Rio Grande do Sul e São Paulo relataram assédio por parte de seus colegas de classe, que usaram ferramentas de IA para criar deepfakes sexualmente explícitos, com base nas fotos. A ONG entrou em contato com a LAION, a organização alemã que controla o LAION-5B, que admitiu a existência das imagens e se comprometeu a removê-las.
O alerta repercutiu no mundo e foi noticiado por portais como o da revista norte-americana Wired, que informou: “O LAION-5B é baseado em Common Crawl, um repositório de dados da web disponibilizado aos pesquisadores que tem sido usado para treinar vários modelos de IA, incluindo a ferramenta de geração de imagens Stable Diffusion da Stability AI. Criado pela organização alemã sem fins lucrativos LAION, o conjunto de dados é de acesso aberto e contém mais de 5,85 bilhões de pares de imagens e legendas”.
#crianças brasileiras#deepfakes maliciosos#denúncia#exploração infantil#fotos ilegais#Human Rights Watch#inteligência artificial#privacidade#segurança
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024