AiotAiot


Como se proteger contra deepfakes geradas por IA generativa

Diretor do Responsible AI Institute mostra os riscos relacionados aos golpes que utilizam vídeos e áudios manipulados

09/04/2024

Como se proteger contra deepfakes geradas por IA generativa
Tamanho fonte

Por Ricardo Marques da Silva

Uma pesquisa feita pela McAfee em 2023 mostrou que 70% dos entrevistados não tinham certeza de que conseguiriam saber se uma voz era real ou clonada por inteligência artificial, e quase metade afirmou que faria transferência de dinheiro se um parente ou amigo ligasse dizendo que havia sido roubado ou sofrido um acidente. Dados como esses foram citados por Var Shankar, diretor executivo do Responsible AI Institute, uma organização global sem fins lucrativos com sede em Austin, nos Estados Unidos, para denunciar os riscos relacionados a deepfakes criados com IA generativa.

Shankar lembrou outros exemplos de golpes ocorridos recentemente, entre os quais o caso em que cibercriminosos usaram vídeos manipulados de executivos de uma empresa multinacional para convencer funcionários baseados em Hong Kong a transferir 25,6 milhões de dólares para uma conta bancária. “Com base em uma videoconferência com vários deepfakes, os funcionários acreditaram que seu diretor financeiro no Reino Unido havia solicitado a transferência dos fundos. Esse uso da tecnologia de IA é perigoso e manipulador. Sem diretrizes e estruturas adequadas, mais organizações correm o risco de serem vítimas de golpes”, afirmou.

O alerta de Shankar foi feito em um artigo publicado no portal AI News. Ele disse que o uso de deepfakes em golpes tem aumentado em escala e sofisticação: “No setor bancário, os cibercriminosos estão agora tentando superar a autenticação de voz e utilizam áudios clonados das pessoas para obter acesso aos seus fundos. Os bancos responderam melhorando suas capacidades de identificar o uso de deepfakes e aumentando os requisitos de autenticação”.

Porém, segundo Shankar, as medidas de segurança adotadas pelos bancos não conseguem acompanhar a criatividade dos golpistas e o avanço da tecnologia de deepfake, uma forma de mídia alterada digitalmente para representar uma pessoa real por meio de treinamento de um sistema de IA. A saída, portanto, é redobrar os cuidados, tanto da parte das pessoas quanto das empresas.

Entre as defesas possíveis, Var Shankar sugeriu a atualização das orientações relacionadas a phishing, para incluir ameaças deepfake, e observar que a manipulação pode ocorrer não apenas em textos e e-mails, mas também em vídeos, imagens e áudios. Ele recomenda ainda mais rigor nos sistemas de autenticação e nas senhas utilizadas – por exemplo, no caso das empresas, utilizar mais de um modo de autenticação, de acordo com os riscos envolvidos na transação.

Shankar afirmou ainda que é preciso esperar mais e melhores deepfakes, considerando o ritmo de desenvolvimento da IA generativa, as grandes eleições marcadas para 2024 e a facilidade com que as mensagens falsas podem se propagar entre pessoas e através das fronteiras. “Embora os deepfakes sejam uma preocupação de segurança cibernética, as empresas também devem encará-los como fenômenos complexos e emergentes com ampla repercussão. Uma abordagem proativa e ponderada para lidar com esse risco pode ajudar a educar as partes interessadas e garantir que as medidas de combate sejam responsáveis, proporcionais e apropriadas”, completou.

TAGS

#áudios manipulados#cibercriminosos#deepfakes#golpes#IA generativa#inteligência artificial#mensagens falsas#phishing#seguranca cibernetica#vídeos manipulados

COMPARTILHE

Notícias Relacionadas