Roubo de dados bancários em smartphones triplicou em 2024
Relatório da Kaspersky mostra que a ameaça de HackTools predominou nas tentativas de ataque a celulares Android no Brasil
25/03/202512/03/2025
Por Ricardo da Silva Marques
Tornaram-se comuns os golpes em que um criminoso imita a voz de uma pessoa para extorquir parentes por meio de ameaças ou então se faz passar por uma celebridade para indicar, por exemplo, falsos investimentos financeiros. Com a aplicação de recursos de IA, esse tipo de crime ganhou sofisticação, na medida em que ficou mais fácil clonar uma voz com perfeição por meio de aplicativos como Descript, Resemble AI, ElevenLabs, Speechify, PlayAI e Lovo, que costumam ser usados para ler notícias e traduzir ou dublar áudio.
Supostamente, esses apps deveriam contar com medidas eficazes de proteção do usuário, mas um estudo recente feito pela organização de consumidores norte-americana Consumer Reports mostrou que essa garantia de segurança nem sempre existe. “O resultado: um setor em expansão para criminosos que podem usar vozes clonadas de pessoas reais para roubar dinheiro de contas correntes e de poupança, carteiras de investimentos, empresas multibilionárias e até de mesmo agências governamentais. Está acontecendo mais do que você imagina, dizem os especialistas, e só vai piorar”, alertou a Consumer Reports.
Para chegar a essa conclusão, o estudo testou os aplicativos Descript, Resemble AI, ElevenLabs, Speechify, PlayAI e Lovo e verificou que apenas os dois primeiros ofereciam algum tipo de proteção, mas ainda assim os pesquisadores conseguiram descobrir maneiras de contornar as restrições. “Os outros quatro aplicativos de clonagem de voz — ElevenLabs, Speechify, PlayAI e Lovo — não possuem nenhum mecanismo técnico para garantir que o usuário tenha o consentimento do falante para gerar um clone ou para limitar a clonagem da própria voz do usuário”, afirmou a Consumer Reports.
Em vez disso, essas empresas exigem apenas que os usuários marquem uma caixa confirmando que elas têm o direito legal de clonar a voz. No entanto, Grace Gedye, analista de políticas de IA da Consumer Reports que avaliou os aplicativos, disse que um simples exercício de verificação de caixa não consegue deter uma pessoa que esteja tentando aplicar um golpe ou atacar a reputação de alguém. “Está claro que há técnicas que as empresas podem usar para dificultar a clonagem de voz sem consentimento, mas algumas empresas estão optando por não adotá-las”, destacou.
A Consumer Reports disse que essas descobertas confirmam o que já havia sido exposto por outros relatórios a respeito dos riscos que os aplicativos de clonagem de voz representam e ressaltam sua vulnerabilidade a tentativas de fraudes e golpes. “Somos programados para confiar em certas vozes, como, digamos, a de Morgan Freeman. Confiamos nelas. Mas a maioria de nós não está preparada para os ataques que têm como alvo pessoas comuns, e pode ser necessária uma crise para que estejamos preparados”, observou o pesquisador de segurança cibernética Arun Vishwanath, que dirige a Cyber Hygiene Academy.
#clonagem de voz#golpes#seguranca cibernetica
Relatório da Kaspersky mostra que a ameaça de HackTools predominou nas tentativas de ataque a celulares Android no Brasil
25/03/2025Defender’s Guide 2025 reúne anos de pesquisa, insights de segurança e inteligência de mercado para oferecer aos profissionais de TI estratégias e técnicas para combater ataques digitais
24/03/2025Edição brasileira do evento da Palo Alto vai mostrar o poder da tecnologia no fortalecimento das estratégias de defesa
21/03/2025