Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202422/04/2024
Por redação AIoT Brasil
Ao mesmo tempo que encantaram as pessoas com suas surpreendentes funcionalidades, as ferramentas mais avançadas de inteligência artificial, como o ChatGPT, também trouxeram novos riscos para a segurança assim que passaram a ser usadas amplamente por cibercriminosos. Esse fato foi comprovado, mais uma vez, por um levantamento recente da consultoria Apura Cyber Intelligence, segundo o qual ataques avançados, como os de phishing aprimorados por IA, destacam a necessidade constante de implantação de contramedidas baseadas na mesma tecnologia.
O relatório “2023: O Ano em Resumo”, cuja íntegra pode ser baixada gratuitamente aqui, mostra os principais incidentes relacionados ao uso malicioso de IA em 2023 e as perspectivas para 2024. De acordo com o estudo, surgiram variações malignas de ferramentas como o WormGPT e o FraudGPT que evidenciam a sofisticação dos ataques impulsionados por IA, que também tem sido empregada na criação de deep fakes em golpes como promoções que enganam o consumidor e roubam suas informações.
Os golpistas conseguem iludir até mesmo sistemas de autenticação baseados em voz e biometria facial, amplamente utilizados em aplicativos financeiros. “À medida que o uso do ChatGPT se disseminava, os criminosos aproveitaram a tendência e exploraram as capacidades da ferramenta para criar ou aprimorar códigos maliciosos”, explicou Maurício Paranhos, diretor de operações da Apura.
Por outro lado, as empresas especializadas em cibersegurança também passaram a utilizar a IA para prevenir e combater esses ataques por meio de uma abordagem mais proativa. “O dinamismo do atual cenário cibernético exige soluções robustas, éticas e capazes de enfrentar os desafios em constante mutação. Ferramentas internas de detecção de incidentes e soluções de Cyber Threat Intelligence, aliadas a uma vigilância constante, são componentes vitais para manter a integridade da segurança cibernética na era da IA”, destacou Paranhos.
Entre os recursos dessa proteção está a aplicação de algoritmos avançados de aprendizado de máquina, que permitem identificar atividades suspeitas e padrões anômalos no tráfego de rede e no comportamento do usuário. “A polícia não pode enfrentar bandidos bem armados com um estilingue. Da mesma forma, os profissionais de cibersegurança não podem proteger as empresas sem conhecer as técnicas, táticas e procedimentos utilizados pelos criminosos. É preciso conhecer as armas do inimigo para ter sucesso nessa tarefa”, completou Paranhos.
#aprendizado de máquina#biometria facial#ChatGPT#cibercriminosos#cibersegurança#códigos maliciosos#Cyber Intelligence#deep fakes#FraudGPT#golpes
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024