Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202424/01/2024
Por redação AIoT Brasil
Como saber que você é realmente quem diz? Confirmar a identidade de uma pessoa sem vê-la física e pessoalmente é uma necessidade que continua a crescer em importância e dificuldade. Entre as maiores ameaças à verificação remota de identidade estão as deepfakes criadas por IA generativa.
Segundo Daniel Molina, vice-presidente da iProov para a América Latina, o olho humano é incapaz de distinguir com segurança entre imagens sintéticas e imagens reais. Isso fez com que a biometria alimentada por Inteligência Artificial tenha emergido como a defesa mais robusta contra deepfakes – e, portanto, o único método confiável de verificação remota de identidade.
“Na verdade, combater as deepfake requer investigação contínua e soluções de missão crítica com segurança em permanente evolução. Além disso, as pessoas também valorizam a conveniência da verificação biométrica facial – 72% dos consumidores em todo o mundo preferem a verificação facial para segurança online.”
No entanto, à medida que a tecnologia biométrica avança, os agentes maliciosos procuram métodos novos e mais sofisticados para comprometer estes sistemas. Molina ressalta que as deepfakes não são uma ameaça à segurança biométrica – eles são uma ameaça a qualquer método de verificação remota da identidade de um ser humano.
As deepfake surgiram como uma diversão inofensiva, com pessoas criando vídeos e fotos para fins de entretenimento. No entanto, quando combinadas a intenções maliciosas e ferramentas de ataque cibernético, elas rapidamente se transformam em ameaças sinistras.
O vice-presidente para América Latina da iProov lembra que as deepfakes rapidamente se tornaram uma forma muito poderosa de lançar ataques de segurança cibernética, espalhar notícias falsas e influenciar a opinião pública, e muitas pessoas já se depararam com uma deepfake, mesmo sem perceber.
Molina ressalta que a tecnologia deepfake envolve o uso de ferramentas como imagens geradas por computador (CGI) e inteligência artificial para alterar a aparência e o comportamento de alguém. “Algoritmos de aprendizado de máquina (machine learning) trabalham para gerar conteúdo sintético altamente realista para imitar comportamentos humanos, incluindo expressões faciais e fala.” As deepfake podem ser empregadas para criar identidades falsificadas, imitar pessoas e obter acesso a locais seguros, por exemplo.
Devido à sofisticação da tecnologia, conteúdo deepfake muitas vezes parece altamente realista para humanos treinados e até mesmo para algumas soluções de verificação de identidade – tornando difícil distinguir o genuíno do sintético. O ritmo de rápida evolução da IA significa que as deepfakes também estão evoluindo continuamente – eles não são uma ameaça estática.
A verificação biométrica facial emergiu especificamente como o único método confiável de verificação remota de identidade porque outros métodos biométricos não podem verificar a identidade, apenas autenticá-lo.
“Isso ocorre porque a voz, a íris e outros componentes biométricos geralmente não estão em nenhum dos seus documentos de identidade (ao contrário do seu rosto). Assim, não se tem nada confiável para verificar os dados biométricos – nenhuma fonte de verdade”, explica o vice-presidente da iProov para América Latina. Ele ressalta que mesmo que uma organização tenha acesso a dados oficiais de impressões digitais, por exemplo, ela não é escalonável como a verificação facial.
“O mesmo se aplica aos métodos tradicionais, como senhas e OTPs (Senhas de utilização única, pela sigla em inglês), que falharam totalmente em manter os usuários seguros online. Desse modo, é impossível ter 100% de certeza da identidade de alguém só porque essa pessoa sabe algo (uma senha) ou possui algo (um telefone com um código), por exemplo”, explica Molina. Além disso, a clonagem baseada em IA é uma ameaça a todos os métodos biométricos, sendo a voz o componente biométrico mais fácil de clonar.
Para mitigar os riscos associados a ataques deepfake a sistemas biométricos, a iProov sugere algumas medidas:
• Biometria multimodal: a combinação de vários métodos biométricos, como verificação facial e digitalização de impressões digitais, pode aumentar a segurança, tornando mais difícil para os invasores falsificarem múltiplas modalidades simultaneamente.
• Detecção de vida: a implementação de verificações de detecção de vida com base científica pode ajudar a diferenciar entre dados biométricos reais e representações sintéticas, como deepfakes que não possuem sinais vitais de vida.
• Monitoramento contínuo: os sistemas biométricos devem incorporar monitoramento contínuo e detecção de anomalias para identificar padrões ou comportamentos incomuns que possam indicar um ataque deepfake. As organizações devem adotar técnicas avançadas que possam se adaptar ao cenário em rápida aceleração das ameaças cibernéticas (e não aquelas que dependem de defesas estáticas – a solução é um serviço em evolução e não um software).
#deepfakes#IA#iProov#segurança biométrica#verificação facial
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024