Curso de cibersegurança abre vagas para grupos vulneráveis
Programa gratuito dá prioridade a mulheres, integrantes da comunidade LGBTQ+ e a pessoas pretas e pardas, com deficiência e acima de 60 anos
19/05/202522/04/2024
Por redação AIoT Brasil
Ao mesmo tempo que encantaram as pessoas com suas surpreendentes funcionalidades, as ferramentas mais avançadas de inteligência artificial, como o ChatGPT, também trouxeram novos riscos para a segurança assim que passaram a ser usadas amplamente por cibercriminosos. Esse fato foi comprovado, mais uma vez, por um levantamento recente da consultoria Apura Cyber Intelligence, segundo o qual ataques avançados, como os de phishing aprimorados por IA, destacam a necessidade constante de implantação de contramedidas baseadas na mesma tecnologia.
O relatório “2023: O Ano em Resumo”, cuja íntegra pode ser baixada gratuitamente aqui, mostra os principais incidentes relacionados ao uso malicioso de IA em 2023 e as perspectivas para 2024. De acordo com o estudo, surgiram variações malignas de ferramentas como o WormGPT e o FraudGPT que evidenciam a sofisticação dos ataques impulsionados por IA, que também tem sido empregada na criação de deep fakes em golpes como promoções que enganam o consumidor e roubam suas informações.
Os golpistas conseguem iludir até mesmo sistemas de autenticação baseados em voz e biometria facial, amplamente utilizados em aplicativos financeiros. “À medida que o uso do ChatGPT se disseminava, os criminosos aproveitaram a tendência e exploraram as capacidades da ferramenta para criar ou aprimorar códigos maliciosos”, explicou Maurício Paranhos, diretor de operações da Apura.
Por outro lado, as empresas especializadas em cibersegurança também passaram a utilizar a IA para prevenir e combater esses ataques por meio de uma abordagem mais proativa. “O dinamismo do atual cenário cibernético exige soluções robustas, éticas e capazes de enfrentar os desafios em constante mutação. Ferramentas internas de detecção de incidentes e soluções de Cyber Threat Intelligence, aliadas a uma vigilância constante, são componentes vitais para manter a integridade da segurança cibernética na era da IA”, destacou Paranhos.
Entre os recursos dessa proteção está a aplicação de algoritmos avançados de aprendizado de máquina, que permitem identificar atividades suspeitas e padrões anômalos no tráfego de rede e no comportamento do usuário. “A polícia não pode enfrentar bandidos bem armados com um estilingue. Da mesma forma, os profissionais de cibersegurança não podem proteger as empresas sem conhecer as técnicas, táticas e procedimentos utilizados pelos criminosos. É preciso conhecer as armas do inimigo para ter sucesso nessa tarefa”, completou Paranhos.
#aprendizado de máquina#biometria facial#ChatGPT#cibercriminosos#cibersegurança#códigos maliciosos#Cyber Intelligence#deep fakes#FraudGPT#golpes
Programa gratuito dá prioridade a mulheres, integrantes da comunidade LGBTQ+ e a pessoas pretas e pardas, com deficiência e acima de 60 anos
19/05/2025Empresa alega que o chatbot não garante a segurança dos dados e suas respostas podem ser influenciadas pela “propaganda chinesa”
12/05/2025Segundo a imprensa europeia, falta de luz pode ter sido ação de um ciberataque; brasileiro estava na Espanha durante partida do Master 1000 de Madri e está “preso” no local
28/04/2025