Como o domínio .ia na web está rendendo milhões para Anguila
A pequena ilha caribenha fatura alto com o endereço que recebeu de graça e é vendido para empresas de tecnologia
05/09/202504/09/2025
Por Ricardo Marques da Silva
A Meta reconheceu que estava errada ao permitir que seus chatbots mantivessem interações potencialmente perigosas com adolescentes e anunciou a decisão de revisar os processos de treinamento de suas ferramentas de IA. O erro foi assumido por uma porta-voz da empresa de Mark Zuckerberg e as mudanças são provisórias, até que se implantem medidas de segurança mais efetivas e permanentes.
Em declaração ao portal TechCrunch, a representante da Meta, Stephanie Otway, admitiu que os chatbots da big tech mantinham com adolescentes interações a respeito de tópicos como automutilação, suicídio e transtornos alimentares ou conversas inadequadas. “À medida que nossa comunidade cresce e a tecnologia evolui, estamos continuamente aprendendo sobre como os jovens podem interagir com essas ferramentas e fortalecendo nossas proteções de acordo com essa realidade”, disse Otway.
Ela afirmou que a Meta está refinando seus sistemas e adicionando proteções extras, o que inclui o treinamento das IAs da empresa para que não tratem desses temas com adolescentes e para orientá-los a buscar recursos especializados. “Essas atualizações já estão em andamento e continuaremos a adaptar nossa abordagem para ajudar a garantir que os adolescentes tenham experiências com a IA mais seguras e adequadas à sua idade ”, acrescentou.
Além disso, a Meta disse que vai limitar o acesso de adolescentes a certos personagens de IA criados por usuários que podem estimular conversas inapropriadas. Entre esses personagens, disponíveis no Instagram e no Facebook, estão chatbots sexualizados, como a “Madrasta” e a “Garota Russa”. Em vez disso, os usuários adolescentes terão acesso apenas a personagens de IA “que promovam educação e criatividade”, assegurou Otway.
A TechCrunch lembrou que essas mudanças foram anunciadas duas semanas depois que uma investigação revelou que um documento interno da Meta permitia que os chatbots da empresa se envolvessem em conversas sobre temas sexuais com usuários menores de idade. Também havia casos em que as ferramentas de IA eram orientadas sobre a maneira como deveriam responder a solicitações de imagens violentas ou sexuais de figuras públicas.
Porém, profissionais da área de segurança infantil disseram que a Meta deveria ter agido antes. Ouvido pelo portal AINews, Andy Burrows, da Fundação Molly Rose, afirmou que era “assombroso” que robôs pudessem operar de modo a pôr crianças e adolescentes em risco. “Embora medidas de segurança adicionais sejam bem-vindas, testes de segurança rigorosos deveriam ter sido realizados antes do lançamento dos produtos no mercado, e não retrospectivamente, quando o dano já ocorreu”, afirmou.
#adolescentes#automutilação#chatbots#conversas inapropriadas#Meta#segurança infantil#suicídio#transtornos alimentares
A pequena ilha caribenha fatura alto com o endereço que recebeu de graça e é vendido para empresas de tecnologia
05/09/2025Novo processo acirra a rivalidade entre os ex-parceiros Elon Musk e Sam Altman na disputa por mais poder na área de IA
03/09/2025Pesquisa do Google também mostra que quase metade dos profissionais entende que a IA melhora o desempenho no trabalho
02/09/2025