Brasil é o país da América Latina mais otimista com a IA
26% dos profissionais brasileiros acham que a tecnologia tem impacto positivo no trabalho, mas ainda há receio de perda do emprego
26/09/202525/09/2025
Por Ricardo Marques da Silva
Já se sabe que algumas pessoas estão usando os chatbots de IA para consultas relacionadas à saúde mental, uma prática que geralmente é desaconselhada, pelos riscos envolvidos. Agora, um artigo publicado pela MIT Technology Review, a revista do Instituto de Tecnologia de Massachusetts, levou a questão a outro nível ao mostrar que terapeutas norte-americanos vêm recorrendo secretamente ao ChatGPT para tratar seus pacientes.
Assinado pela jornalista de tecnologia Laurie Clarke, o artigo cita casos como o de Declan, de 31 anos, que mora em Los Angeles e não teve o sobrenome revelado, que descobriu o problema por causa de uma falha técnica. Ele estava em um consulta online, a conexão ficou instável e, de repente, o terapeuta compartilhou sua tela, sem querer. “Foi quando vi ele usar o ChatGPT. Ele estava pegando o que eu estava dizendo e colocando no ChatGPT, e então resumindo ou escolhendo respostas”, disse Declan.
Para ele, foi um choque. “Durante o restante da sessão, Declan ficou observando uma transmissão em tempo real da análise do ChatGPT se espalhando pela tela do seu terapeuta. Tudo ficou ainda mais surreal quando Declan começou a ecoar o ChatGPT em suas próprias respostas, antecipando seu terapeuta”, relatou o artigo. Na sessão seguinte, ele cobrou o terapeuta, que chorou. “Foi muito constrangedor, com um término estranho. E eu ainda fui cobrado pela sessão,” diz Declan, com bom humor, mas decidido a procurar outro profissional.
Outra paciente – Hope, de 25 anos, que vive na Costa Leste dos Estados Unidos – passou por experiência semelhante. Ela havia enviado uma mensagem direta para sua terapeuta sobre a morte do seu cachorro e logo recebeu uma resposta atenciosa, se não fosse uma referência ao prompt da IA preservado acidentalmente no topo: “Aqui está uma versão mais humana, sincera, com um tom gentil e conversacional”. Hope ficou surpresa e confusa: “Foi uma sensação muito estranha. Depois comecei a me sentir meio traída, e isso definitivamente afetou minha confiança nela”, disse.
Segundo o artigo, a terapeuta se desculpou e explicou que, como nunca teve um animal de estimação, recorreu à IA para ajudar a expressar o sentimento apropriado. Mas Hope não se convenceu e definiu a situação como “especialmente problemática”, porque parte do motivo de procurar terapia estava ligada a seus problemas de confiança.
A matéria da MIT Technology Review entrevistou outros pacientes em situações parecidas, ouviu alguns especialistas e citou estudos científicos que abordaram essa questão. Também destacou que o uso de chatbots nessa tarefa não é autorizado pelas agências reguladoras, assim como a divulgação de informação pessoal ou de saúde para uma IA. Todos concordam que o tema é delicado e envolve uma grave violação da ética e da privacidade, e o uso de chatbots por terapeutas tem o potencial de expor dados sensíveis e comprometer a confiança e a segurança dos pacientes.
#chatbots de IA#ChatGPT#dados sensíveis#privacidade#saúde mental#terapeutas
26% dos profissionais brasileiros acham que a tecnologia tem impacto positivo no trabalho, mas ainda há receio de perda do emprego
26/09/2025Informação foi divulgada pelo ministro das Infraestruturas, que também anunciou a designação da Anacom como reguladora da IA no país
23/09/2025Levantamento da IBM feito com 150 executivos mostra que a adoção da IA agêntica será decisiva para a competitividade e eficiência das organizações nos próximos anos
22/09/2025