Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202409/02/2024
Por redação AIoT Brasil
Um ano após o lançamento do ChatGPT, é evidente que muitos serviços de cibercrime já o utilizam regularmente, especialmente na área de falsificação de identidade e engenharia social, buscando burlar as restrições para aumentar a eficácia de seus ataques.
Pesquisadores da Check Point Software examinaram quatro exemplos diferentes de como a IA generativa foi usada para potencializar ataques cibernéticos:
Plataforma Black-Hat impulsionada por IA para falsificar redes sociais
As contas falsas em redes sociais representam uma ameaça significativa à cibersegurança devido ao seu potencial para realizar atividades nocivas, como a falsificação de marcas ou a disseminação de notícias falsas, entre outras.
Recentemente, foi identificada uma nova plataforma que utiliza IA para gerar conteúdo em redes sociais, Instagram, Facebook, Twitter e Telegram, e automatizar quase totalmente a manutenção de contas falsas nas redes sociais. A plataforma é capaz de criar conteúdo simultânea e diariamente para mais de 200 contas.
Além disso, promovem os perfis e proporcionam uma sensação de autenticidade ao se juntarem a grupos relevantes, gostarem de contas semelhantes, entre outros, para obter mais seguidores e usar esse tráfego de contas para seus propósitos maliciosos.
Um exemplo levantado pelos pesquisadores da Check Point Software aponta que um ator de ameaça mostra conteúdo gerado para modelos femininas. Em outro caso, ele gerou uma série de perfis falsos que imitam traders financeiros masculinos bem-sucedidos.
Serviço de deepfakes impulsionado por IA
Os pesquisadores identificaram um novo serviço de falsificação que se concentra em fornecer serviços de deepfake de três formas diferentes:
. Sincronização labial.
. Sincronização labial e substituição de rosto.
. Dublagem de voz.
O uso desses serviços geralmente é empregado para criar perfis falsos em redes sociais e assim promover agendas políticas ou produtos, ou ainda para falsificar identidades de personalidades relevantes a fim de causar danos graves à sua reputação.
Ferramentas e serviços de spam impulsionados por IA
Uma das formas mais comuns de uso da IA é na geração de spam com diversos objetivos, como phishing, obtenção de credenciais, distribuição de malware, golpes, entre outros. Os cibercriminosos podem criar textos únicos para cada e-mail, o que lhes permite contornar os controles antispam e antiphishing dos serviços de e-mail, alcançando uma taxa de sucesso de 70%.
Serviços de verificação KYC
Os serviços de KYC (Know Your Customer – Conheça Seu Cliente) estão se tornando cada vez mais comuns em empresas financeiras, onde coletam informações detalhadas de seus clientes para garantir a segurança de suas transações, mitigar riscos e cumprir regulamentos. Também é usado para que os clientes possam recuperar o acesso às suas contas, como uma forma de redefinir a senha. Para acessar esses sistemas de forma ilícita, foram criados serviços clandestinos que geram documentação falsa com a ajuda da IA e com os quais obtêm resultados muito fiéis rapidamente.
O rápido desenvolvimento das tecnologias de IA traz novas oportunidades e desafios cada vez mais complexos à cibersegurança. Enquanto a IA possibilita aplicações benéficas como a detecção de malware e a segurança de sistemas, também permite que os cibercriminosos ampliem suas operações.
Agora, os cibercriminosos podem aproveitar o poder da IA para criar esquemas de engenharia social mais sofisticados, encontrar vulnerabilidades de rede mais rapidamente, produzir mídia sintética para intimidação ou roubo de identidade, além de automatizar tentativas de phishing e desenvolvimento de malware.
#ChatGPT#Check Point Software#cibercriminosos#deepfakes#inteligência artificial generativa#phishing#Plataforma Black-Hat#traders
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024