IA generativa predomina nos ataques a empresas brasileiras
Estudo indica que a tecnologia foi usada em mais de 50% das tentativas de violação registradas no país em 2023
25/04/202422/04/2024
Por redação AIoT Brasil
Ao mesmo tempo que encantaram as pessoas com suas surpreendentes funcionalidades, as ferramentas mais avançadas de inteligência artificial, como o ChatGPT, também trouxeram novos riscos para a segurança assim que passaram a ser usadas amplamente por cibercriminosos. Esse fato foi comprovado, mais uma vez, por um levantamento recente da consultoria Apura Cyber Intelligence, segundo o qual ataques avançados, como os de phishing aprimorados por IA, destacam a necessidade constante de implantação de contramedidas baseadas na mesma tecnologia.
O relatório “2023: O Ano em Resumo”, cuja íntegra pode ser baixada gratuitamente aqui, mostra os principais incidentes relacionados ao uso malicioso de IA em 2023 e as perspectivas para 2024. De acordo com o estudo, surgiram variações malignas de ferramentas como o WormGPT e o FraudGPT que evidenciam a sofisticação dos ataques impulsionados por IA, que também tem sido empregada na criação de deep fakes em golpes como promoções que enganam o consumidor e roubam suas informações.
Os golpistas conseguem iludir até mesmo sistemas de autenticação baseados em voz e biometria facial, amplamente utilizados em aplicativos financeiros. “À medida que o uso do ChatGPT se disseminava, os criminosos aproveitaram a tendência e exploraram as capacidades da ferramenta para criar ou aprimorar códigos maliciosos”, explicou Maurício Paranhos, diretor de operações da Apura.
Por outro lado, as empresas especializadas em cibersegurança também passaram a utilizar a IA para prevenir e combater esses ataques por meio de uma abordagem mais proativa. “O dinamismo do atual cenário cibernético exige soluções robustas, éticas e capazes de enfrentar os desafios em constante mutação. Ferramentas internas de detecção de incidentes e soluções de Cyber Threat Intelligence, aliadas a uma vigilância constante, são componentes vitais para manter a integridade da segurança cibernética na era da IA”, destacou Paranhos.
Entre os recursos dessa proteção está a aplicação de algoritmos avançados de aprendizado de máquina, que permitem identificar atividades suspeitas e padrões anômalos no tráfego de rede e no comportamento do usuário. “A polícia não pode enfrentar bandidos bem armados com um estilingue. Da mesma forma, os profissionais de cibersegurança não podem proteger as empresas sem conhecer as técnicas, táticas e procedimentos utilizados pelos criminosos. É preciso conhecer as armas do inimigo para ter sucesso nessa tarefa”, completou Paranhos.
#aprendizado de máquina#biometria facial#ChatGPT#cibercriminosos#cibersegurança#códigos maliciosos#Cyber Intelligence#deep fakes#FraudGPT#golpes
Estudo indica que a tecnologia foi usada em mais de 50% das tentativas de violação registradas no país em 2023
25/04/2024Estudo patrocinado pelo SAS mostra que 93% das empresas dos EUA ainda não têm uma estrutura de governança para a tecnologia
23/04/2024Nova solução foi desenvolvida com um algoritmo criado na América Latina e até o final de 2024 irá incorporar outros analíticos ligados a crimes como sequestros
09/04/2024