AiotAiot


IA torna os cibercriminosos mais eficientes e perigosos

Recursos de ferramentas generativas como o ChatGPT permitem a aplicação de golpes mais elaborados e convincentes

27/09/2023

IA torna os cibercriminosos mais eficientes e perigosos
Tamanho fonte

Por redação AIoT Brasil

De um lado, os recursos de inteligência artificial causam encantamento com suas quase infinitas possibilidades de criação e manipulação de textos, imagens, áudios e vídeos. De outro, essas mesmas funcionalidades se tornam uma arma perigosa quando usadas por cibercriminosos, que começam a aplicar golpes cada vez mais elaborados e de difícil detecção por meio da utilização de marcas e logotipos de empresas e bancos que parecem absolutamente reais.

De acordo com dados da Comissão Federal de Comércio dos Estados Unidos, os consumidores norte-americanos sofreram perdas em golpes que somaram quase US$ 8,8 bilhões em 2022, o que representa um aumento superior a 30% em relação ao ano anterior. Quando se consideram somente as perdas causadas por impostores, muitas das quais com o uso de IA, o total chegou a US$ 2,6 bilhões.

Em um artigo publicado na Forbes, o colunista Jeff Kauflin disse que as medidas de prevenção, como autenticação por voz ou validação de imagem em tempo real, estão ficando ultrapassadas e ineficientes: “É provável que, na prática, a segurança utilizada atualmente vai perder a batalha para os robôs da IA”, afirmou.

Kauflin entrevistou, por exemplo, Kenneth Williams, vice-presidente sênior da Synchrony, uma das mais populares operadoras de cartões de crédito dos EUA, com 70 milhões de contas ativas, que disse: “Constantemente, estamos vendo indivíduos usando fotos e vídeos deepfake para autenticação e podemos concluir com segurança que foram criados com IA”.

O artigo também cita uma pesquisa de junho deste ano que ouviu 650 especialistas em segurança cibernética, e 75% deles relataram um aumento nos ataques, com 85% atribuindo esse avanço ao uso de IA generativa. Kauflin explica: “Os criminosos podem usar a IA de diversas maneiras. Se você posta frequentemente nas redes sociais ou em qualquer lugar online, eles podem treinar um modelo de IA para escrever no seu estilo. Se tiverem uma pequena amostra de áudio da sua voz, podem ligar para seus parentes reproduzindo exatamente a mesma voz e a maneira de falar”.

O colunista lembrou ainda o caso de uma empresa japonesa que perdeu US$ 35 milhões depois que a voz de um diretor da companhia foi clonada, em uma ocorrência que teria sido um prenúncio do que acontece agora com mais frequência, à medida que as ferramentas de IA se tornam mais acessíveis e ganham novos recursos. Segundo Kauflin, os criminosos chegaram ao ponto de criar ferramentas prontas para uso, com nomes como FraudeGPT e WormGPT, baseado nos modelos de IA generativa lançados pelos gigantes da tecnologia.

A saída, de acordo com Kauflin, passa pela criação de sistemas de IA mais seguros e, individualmente, por medidas de proteção mais efetivas, além de muita cautela com tudo o que envolva dinheiro. Nesse sentido, ironicamente, a IA poderá ser uma arma poderosa, na medida em que ajuda a localizar as fraudes e os fraudadores e evitar os golpes.

Quadro que resume as fraudes/Reprodução USA Federal Trade Commission

TAGS

#ChatGPT#cibercriminosos#deepfake#ferramentas generativas#fraudes#golpes#inteligência artificial#segurança

COMPARTILHE

Notícias Relacionadas