Big techs se unem contra a falsificação de produtos na China
OpenAI, Google e Anthropic deixam de lado a rivalidade e estão compartilhando informações por meio do Frontier Model Forum
10/04/202604/09/2025

Por Ricardo Marques da Silva
A Meta reconheceu que estava errada ao permitir que seus chatbots mantivessem interações potencialmente perigosas com adolescentes e anunciou a decisão de revisar os processos de treinamento de suas ferramentas de IA. O erro foi assumido por uma porta-voz da empresa de Mark Zuckerberg e as mudanças são provisórias, até que se implantem medidas de segurança mais efetivas e permanentes.
Em declaração ao portal TechCrunch, a representante da Meta, Stephanie Otway, admitiu que os chatbots da big tech mantinham com adolescentes interações a respeito de tópicos como automutilação, suicídio e transtornos alimentares ou conversas inadequadas. “À medida que nossa comunidade cresce e a tecnologia evolui, estamos continuamente aprendendo sobre como os jovens podem interagir com essas ferramentas e fortalecendo nossas proteções de acordo com essa realidade”, disse Otway.
Ela afirmou que a Meta está refinando seus sistemas e adicionando proteções extras, o que inclui o treinamento das IAs da empresa para que não tratem desses temas com adolescentes e para orientá-los a buscar recursos especializados. “Essas atualizações já estão em andamento e continuaremos a adaptar nossa abordagem para ajudar a garantir que os adolescentes tenham experiências com a IA mais seguras e adequadas à sua idade ”, acrescentou.
Além disso, a Meta disse que vai limitar o acesso de adolescentes a certos personagens de IA criados por usuários que podem estimular conversas inapropriadas. Entre esses personagens, disponíveis no Instagram e no Facebook, estão chatbots sexualizados, como a “Madrasta” e a “Garota Russa”. Em vez disso, os usuários adolescentes terão acesso apenas a personagens de IA “que promovam educação e criatividade”, assegurou Otway.
A TechCrunch lembrou que essas mudanças foram anunciadas duas semanas depois que uma investigação revelou que um documento interno da Meta permitia que os chatbots da empresa se envolvessem em conversas sobre temas sexuais com usuários menores de idade. Também havia casos em que as ferramentas de IA eram orientadas sobre a maneira como deveriam responder a solicitações de imagens violentas ou sexuais de figuras públicas.
Porém, profissionais da área de segurança infantil disseram que a Meta deveria ter agido antes. Ouvido pelo portal AINews, Andy Burrows, da Fundação Molly Rose, afirmou que era “assombroso” que robôs pudessem operar de modo a pôr crianças e adolescentes em risco. “Embora medidas de segurança adicionais sejam bem-vindas, testes de segurança rigorosos deveriam ter sido realizados antes do lançamento dos produtos no mercado, e não retrospectivamente, quando o dano já ocorreu”, afirmou.
#adolescentes#automutilação#chatbots#conversas inapropriadas#Meta#segurança infantil#suicídio#transtornos alimentares

OpenAI, Google e Anthropic deixam de lado a rivalidade e estão compartilhando informações por meio do Frontier Model Forum
10/04/2026
Pesquisa mostra uma mudança profunda na liderança na área, e quase três quartos dos CEOs já são os principais responsáveis pelas decisões de IA
08/04/2026
Comunidade de editores voluntários concordou que a tecnologia só será permitida para traduções e pequenas edições de texto
31/03/2026