“Não confie cegamente na IA”, recomenda o CEO do Google
Sundar Pichai disse que mesmo os modelos de IA de ponta são sujeitos a erro e o melhor é utilizá-los em conjunto com outras ferramentas
21/11/202525/09/2025

Por Ricardo Marques da Silva
Já se sabe que algumas pessoas estão usando os chatbots de IA para consultas relacionadas à saúde mental, uma prática que geralmente é desaconselhada, pelos riscos envolvidos. Agora, um artigo publicado pela MIT Technology Review, a revista do Instituto de Tecnologia de Massachusetts, levou a questão a outro nível ao mostrar que terapeutas norte-americanos vêm recorrendo secretamente ao ChatGPT para tratar seus pacientes.
Assinado pela jornalista de tecnologia Laurie Clarke, o artigo cita casos como o de Declan, de 31 anos, que mora em Los Angeles e não teve o sobrenome revelado, que descobriu o problema por causa de uma falha técnica. Ele estava em um consulta online, a conexão ficou instável e, de repente, o terapeuta compartilhou sua tela, sem querer. “Foi quando vi ele usar o ChatGPT. Ele estava pegando o que eu estava dizendo e colocando no ChatGPT, e então resumindo ou escolhendo respostas”, disse Declan.
Para ele, foi um choque. “Durante o restante da sessão, Declan ficou observando uma transmissão em tempo real da análise do ChatGPT se espalhando pela tela do seu terapeuta. Tudo ficou ainda mais surreal quando Declan começou a ecoar o ChatGPT em suas próprias respostas, antecipando seu terapeuta”, relatou o artigo. Na sessão seguinte, ele cobrou o terapeuta, que chorou. “Foi muito constrangedor, com um término estranho. E eu ainda fui cobrado pela sessão,” diz Declan, com bom humor, mas decidido a procurar outro profissional.
Outra paciente – Hope, de 25 anos, que vive na Costa Leste dos Estados Unidos – passou por experiência semelhante. Ela havia enviado uma mensagem direta para sua terapeuta sobre a morte do seu cachorro e logo recebeu uma resposta atenciosa, se não fosse uma referência ao prompt da IA preservado acidentalmente no topo: “Aqui está uma versão mais humana, sincera, com um tom gentil e conversacional”. Hope ficou surpresa e confusa: “Foi uma sensação muito estranha. Depois comecei a me sentir meio traída, e isso definitivamente afetou minha confiança nela”, disse.
Segundo o artigo, a terapeuta se desculpou e explicou que, como nunca teve um animal de estimação, recorreu à IA para ajudar a expressar o sentimento apropriado. Mas Hope não se convenceu e definiu a situação como “especialmente problemática”, porque parte do motivo de procurar terapia estava ligada a seus problemas de confiança.
A matéria da MIT Technology Review entrevistou outros pacientes em situações parecidas, ouviu alguns especialistas e citou estudos científicos que abordaram essa questão. Também destacou que o uso de chatbots nessa tarefa não é autorizado pelas agências reguladoras, assim como a divulgação de informação pessoal ou de saúde para uma IA. Todos concordam que o tema é delicado e envolve uma grave violação da ética e da privacidade, e o uso de chatbots por terapeutas tem o potencial de expor dados sensíveis e comprometer a confiança e a segurança dos pacientes.
#chatbots de IA#ChatGPT#dados sensíveis#privacidade#saúde mental#terapeutas

Sundar Pichai disse que mesmo os modelos de IA de ponta são sujeitos a erro e o melhor é utilizá-los em conjunto com outras ferramentas
21/11/2025
Pesquisa IT Trends Snapshot prevê que em 2026 a prioridade será a segurança das informações, seguida da eficiência operacional
17/11/2025
Uma das inovações é o Raciocínio Geoespacial, que permite a conexão automática de diferentes modelos de IA da Terra
14/11/2025