AiotAiot


Estudo confirma aumento no uso de IA por cibercriminosos

Utilização de ferramentas como o WormGPT e o FraudGPT mostra o nível de sofisticação dos ataques impulsionados pela tecnologia

22/04/2024

Estudo confirma aumento no uso de IA por cibercriminosos
Tamanho fonte

Por redação AIoT Brasil

Ao mesmo tempo que encantaram as pessoas com suas surpreendentes funcionalidades, as ferramentas mais avançadas de inteligência artificial, como o ChatGPT, também trouxeram novos riscos para a segurança assim que passaram a ser usadas amplamente por cibercriminosos. Esse fato foi comprovado, mais uma vez, por um levantamento recente da consultoria Apura Cyber ​​Intelligence, segundo o qual ataques avançados, como os de phishing aprimorados por IA, destacam a necessidade constante de implantação de contramedidas baseadas na mesma tecnologia.

O relatório “2023: O Ano em Resumo”, cuja íntegra pode ser baixada gratuitamente aqui, mostra os principais incidentes relacionados ao uso malicioso de IA em 2023 e as perspectivas para 2024. De acordo com o estudo, surgiram variações malignas de ferramentas como o WormGPT e o FraudGPT que evidenciam a sofisticação dos ataques impulsionados por IA, que também tem sido empregada na criação de deep fakes em golpes como promoções que enganam o consumidor e roubam suas informações.

Os golpistas conseguem iludir até mesmo sistemas de autenticação baseados em voz e biometria facial, amplamente utilizados em aplicativos financeiros. “À medida que o uso do ChatGPT se disseminava, os criminosos aproveitaram a tendência e exploraram as capacidades da ferramenta para criar ou aprimorar códigos maliciosos”, explicou Maurício Paranhos, diretor de operações da Apura.

Por outro lado, as empresas especializadas em cibersegurança também passaram a utilizar a IA para prevenir e combater esses ataques por meio de uma abordagem mais proativa. “O dinamismo do atual cenário cibernético exige soluções robustas, éticas e capazes de enfrentar os desafios em constante mutação. Ferramentas internas de detecção de incidentes e soluções de Cyber Threat Intelligence, aliadas a uma vigilância constante, são componentes vitais para manter a integridade da segurança cibernética na era da IA”, destacou Paranhos.

Entre os recursos dessa proteção está a aplicação de algoritmos avançados de aprendizado de máquina, que permitem identificar atividades suspeitas e padrões anômalos no tráfego de rede e no comportamento do usuário. “A polícia não pode enfrentar bandidos bem armados com um estilingue. Da mesma forma, os profissionais de cibersegurança não podem proteger as empresas sem conhecer as técnicas, táticas e procedimentos utilizados pelos criminosos. É preciso conhecer as armas do inimigo para ter sucesso nessa tarefa”, completou Paranhos.

Divulgação Apura

TAGS

#aprendizado de máquina#biometria facial#ChatGPT#cibercriminosos#cibersegurança#códigos maliciosos#Cyber ​​Intelligence#deep fakes#FraudGPT#golpes

COMPARTILHE

Notícias Relacionadas