Google Earth AI ganha novos recursos que refinam as buscas
Uma das inovações é o Raciocínio Geoespacial, que permite a conexão automática de diferentes modelos de IA da Terra
14/11/202504/09/2025

Por Ricardo Marques da Silva
A Meta reconheceu que estava errada ao permitir que seus chatbots mantivessem interações potencialmente perigosas com adolescentes e anunciou a decisão de revisar os processos de treinamento de suas ferramentas de IA. O erro foi assumido por uma porta-voz da empresa de Mark Zuckerberg e as mudanças são provisórias, até que se implantem medidas de segurança mais efetivas e permanentes.
Em declaração ao portal TechCrunch, a representante da Meta, Stephanie Otway, admitiu que os chatbots da big tech mantinham com adolescentes interações a respeito de tópicos como automutilação, suicídio e transtornos alimentares ou conversas inadequadas. “À medida que nossa comunidade cresce e a tecnologia evolui, estamos continuamente aprendendo sobre como os jovens podem interagir com essas ferramentas e fortalecendo nossas proteções de acordo com essa realidade”, disse Otway.
Ela afirmou que a Meta está refinando seus sistemas e adicionando proteções extras, o que inclui o treinamento das IAs da empresa para que não tratem desses temas com adolescentes e para orientá-los a buscar recursos especializados. “Essas atualizações já estão em andamento e continuaremos a adaptar nossa abordagem para ajudar a garantir que os adolescentes tenham experiências com a IA mais seguras e adequadas à sua idade ”, acrescentou.
Além disso, a Meta disse que vai limitar o acesso de adolescentes a certos personagens de IA criados por usuários que podem estimular conversas inapropriadas. Entre esses personagens, disponíveis no Instagram e no Facebook, estão chatbots sexualizados, como a “Madrasta” e a “Garota Russa”. Em vez disso, os usuários adolescentes terão acesso apenas a personagens de IA “que promovam educação e criatividade”, assegurou Otway.
A TechCrunch lembrou que essas mudanças foram anunciadas duas semanas depois que uma investigação revelou que um documento interno da Meta permitia que os chatbots da empresa se envolvessem em conversas sobre temas sexuais com usuários menores de idade. Também havia casos em que as ferramentas de IA eram orientadas sobre a maneira como deveriam responder a solicitações de imagens violentas ou sexuais de figuras públicas.
Porém, profissionais da área de segurança infantil disseram que a Meta deveria ter agido antes. Ouvido pelo portal AINews, Andy Burrows, da Fundação Molly Rose, afirmou que era “assombroso” que robôs pudessem operar de modo a pôr crianças e adolescentes em risco. “Embora medidas de segurança adicionais sejam bem-vindas, testes de segurança rigorosos deveriam ter sido realizados antes do lançamento dos produtos no mercado, e não retrospectivamente, quando o dano já ocorreu”, afirmou.
#adolescentes#automutilação#chatbots#conversas inapropriadas#Meta#segurança infantil#suicídio#transtornos alimentares

Uma das inovações é o Raciocínio Geoespacial, que permite a conexão automática de diferentes modelos de IA da Terra
14/11/2025
Evento de tecnologia deverá atrair 70 mil participantes e big techs como Google, Apple, Microsoft, Meta, Nvidia, Qualcomm e IBM
07/11/2025
Ferramenta criada pelos finalistas de um hackaton realizado há um ano já conquistou a média diária de 250 mil usuários
06/11/2025