As armadilhas que podem arruinar uma viagem planejada por IA
De um cânion inexistente a uma rota de maratona inviável, os bots vêm fazendo sugestões que chegam a ameaçar a vida dos turistas
02/10/202503/10/2025
Por Ricardo Marques da Silva
Pouco mais de um mês depois da abertura de um processo em que o ChatGPT foi acusado de estimular um adolescente a cometer suicídio, a OpenAI anunciou uma série de novos controles parentais nos seus bots de IA, entre os quais a possibilidade de bloqueio pelos pais em determinados horários e alertas de que os filhos correm o risco de se machucarem intencionalmente. Também foi criada a opção de remoção dos modos de voz e de geração de imagens, além de um recurso que impede que as conversas com os adolescentes sejam usadas no treinamento de IAs.
“Este trabalho faz parte do nosso esforço contínuo para tornar o ChatGPT útil para todos e oferecer às famílias ferramentas para apoiar o uso da IA por seus adolescentes. Já divulgamos anteriormente que estamos desenvolvendo um sistema de previsão de idade a longo prazo que nos ajudará a prever se um usuário tem menos de 18 anos, para que o ChatGPT possa aplicar automaticamente configurações adequadas para adolescentes”, disse a OpenAI em comunicado atualizado na terça-feira.
Robbie Torney, diretor Sênior de programas de IA da big tech, esclareceu: “Esses controles parentais são um bom ponto de partida para os pais gerenciarem o uso do ChatGPT por seus filhos adolescentes. No entanto, eles são apenas uma peça do quebra-cabeça quando se trata de manter os adolescentes seguros online – funcionam melhor quando combinados com conversas constantes sobre o uso responsável da IA, regras familiares claras sobre tecnologia e envolvimento ativo na compreensão do que seus filhos adolescentes estão fazendo online”.
O anúncio da OpenAI foi feito pouco mais de um mês depois do início do processo aberto em 28 de agosto no Tribunal Superior da Califórnia por Matt e Maria Raine, que acusaram a OpenAI de homicídio culposo depois do suicídio do filho, Adam, de 16 anos, ocorrido em abril deste ano, com grande repercussão mundial. A alegação é de que o ChatGPT teria encorajado o adolescente a tomar essa decisão.
A OpenAI explicou que, para configurar o controle parental, um dos pais ou responsável deve enviar um convite ao filho para conectar as contas. Assim que o adolescente aceitar, os pais poderão gerenciar as configurações do filho em sua própria conta e, a partir daí, personalizar o uso do ChatGPT em uma página de controle simples nas configurações da conta. Se o adolescente desvincular a conta, o responsável será notificado.
Em um texto publicado no dia 16 de setembro, Sam Altman CEO da OpenAI, havia dito que um chatbot não deveria flertar com adolescentes nem permitir discussões a respeito de suicídio, mas que uma versão para adultos poderia ser mais aberta. “O comportamento padrão do nosso modelo não transforma conversas em flertes, mas se um usuário adulto pedir, ele pode ter esse tipo de interação. Um exemplo bem mais complicado é que o modelo não deve fornecer instruções para um suicídio, mas, se um usuário adulto pedir ajuda para escrever uma história que descreve um suicídio, o modelo deve realizar o pedido. ‘Trate nossos usuários adultos como adultos’: este é um lema interno da empresa, que expande a liberdade ao máximo sem que ela cause dano ou prejudique a liberdade de outros”, acrescentou Altman, revelando como esses limites são tênues.
#adolescentes#ChatGPT#controle parental#homicídio culposo#horários de bloqueios#treinamento de IAs#uso responsável da IA
De um cânion inexistente a uma rota de maratona inviável, os bots vêm fazendo sugestões que chegam a ameaçar a vida dos turistas
02/10/2025Prazo de candidatura foi prorrogado até 31 de dezembro e benefício é concedido também a profissionais brasileiros
01/10/2025Megaevento de conectividade e inovação começa hoje com cerca de 500 palestrantes que abordarão temas que vão da IA à saúde 5.0
30/09/2025