Qwant e Ecosia lançam Staan para competir com as big techs
Mecanismos de busca europeus desenvolveram um modelo que pode ser mais barato e seguro do que o Google e o Bing
07/08/202511/08/2025
Por Ricardo Marques da Silva
De repente, o ChatGPT se tornou uma espécie de divã de terapeuta em que as pessoas revelam seus problemas pessoais em busca de uma resposta mágica da inteligência artificial. Porém, os alertas de especialistas de verdade para a extensão dos riscos envolvidos nessa prática levaram a OpenAI a adotar medidas de cautela e adicionar algumas barreiras: em breve, o bot de IA deixará de dar conselhos diretos aos usuários e recomendará que sejam feitas pausas em conversas longas.
“Nem sempre acertamos“, admitiu a OpenAI em comunicado divulgado na semana passada. “No início deste ano, uma atualização tornou o modelo excessivamente agradável, às vezes dizendo o que parecia bom em vez do que era realmente útil. Revertemos o processo, mudamos a forma como usamos o feedback e estamos aprimorando a forma como medimos a utilidade no mundo real a longo prazo, não apenas se você gostou da resposta naquele momento”, explicou a empresa.
A OpenAI reconheceu que seu modelo GPT-4o “falhou em reconhecer sinais de delírio ou dependência emocional” em alguns casos e disse que a IA pode ser mais pessoal do que as tecnologias anteriores, “especialmente para indivíduos vulneráveis que passam por sofrimento mental ou emocional”. E acrescentou: “Para nós, ajudar você a prosperar significa estar presente quando você estiver passando por dificuldades, ajudando você a manter o controle do seu tempo e orientando – e não decidindo – quando você enfrentar desafios pessoais”.
A atuação do ChatGPT no papel de analista já vinha ganhando destaque na mídia e, segundo o portal The Verge, nos últimos meses diversos relatórios destacaram histórias de pessoas contando que parentes e amigos sofreram crises de saúde mental em situações em que o uso do chatbot pareceu ter um efeito amplificador sobre seus delírios. Ciente do problema, a OpenAI estaria trabalhando com especialistas e grupos consultivos para aprimorar as respostas do ChatGPT e permitir que a IA apresentasse “recursos baseados em evidências quando necessário”.
A NBC News lembrou que em uma entrevista recente o CEO da OpenAI, Sam Altman, já havia mostrado preocupação com o uso do ChatGPT como terapeuta ou coach emocional. Ele disse, contudo, que o compromisso de confidencialidade entre médico e paciente ou entre advogados e seus clientes não se aplica aos chatbots e acrescentou: “Então, se você for falar com o ChatGPT sobre seus assuntos mais sensíveis e depois houver um processo judicial ou algo assim, podemos ser obrigados a apresentar essa questão. E eu acho isso muito problemático. Acho que nas conversas com IA deveríamos ter o mesmo conceito de privacidade das que temos com um terapeuta ou algo assim. E ninguém precisava pensar nisso há um ano”.
#ChatGPT#coach emocional#dependência emocional#desafios pessoais#open AI#problemas pessoais#saúde mental#terapeuta
Mecanismos de busca europeus desenvolveram um modelo que pode ser mais barato e seguro do que o Google e o Bing
07/08/2025Muita gente não gostou de saber que Ulf Kristersson consulta com frequência ferramentas de IA para obter uma “segunda opinião”
06/08/2025Órgão antitruste alega que a empresa descumpriu o regulamento europeu ao incorporar sua ferramenta de IA ao WhatsApp
04/08/2025