AiotAiot


Eleições: especialistas alertam para a evolução das deepfakes

Produção de conteúdos falsos em vídeo se transformou em ferramenta de manipulação política; avanço tecnológico torna cada vez mais difícil identificá-las

15/07/2022

Eleições: especialistas alertam para a evolução das deepfakes
Tamanho fonte

Por Ricardo Filho, estagiário do AIoT Brasil,  com supervisão do editor

As eleições para cargos do Poder Executivo (presidente da república e governadores) e Legislativo (deputados e senadores) ocorrem este ano, e a tecnologia – principalmente as redes sociais – tem sido vital para as campanhas políticas. Com o uso de Inteligência Artificial, a tecnologia de deepfake – junção de das expressões do inglês “deep learning”, que significa aprendizado profundo, e “fake”, falso – utiliza machine learning (aprendizado de máquina) para a criação de imagens, vídeos ou áudios falsos, porém extremamente realistas.

Utilizada muitas vezes para entretenimento, as montagens fazem sucesso em redes sociais, como o TikTok. Recentemente, a atriz Margot Robbie foi vítima desses conteúdos falsos por um perfil de paródia, que acumula 767.7 mil seguidores. Com vídeos de dança e trends, perfis desavisados elogiam o conteúdo, convictos de que o perfil é oficial, enquanto outros alertam para a fraude. Comentários como “Ok, essa é ela ou não? Estou confuso” e “Deepfakes estão se tornando realmente boas” são usuais na caixa de comentários.

Apesar de serem muito utilizadas como instrumento de humor, especialistas relatam preocupações no que diz respeito ao combate à desinformação e, até mesmo, interferência na corrida eleitoral de 2022. Em entrevista ao AIoT Brasil, Marcelo Fontoura, professor de comunicação digital e jornalismo da PUC-RS, explicou quais são os primeiros passos para a verificação de uma deepfake.

“Elas se tornam cada vez mais difíceis de serem identificadas. Um ponto que se recomenda para verificação é acompanhar os olhos – isso quando se fala em um projeto visual. Normalmente eles não piscam, porque são feitos com a biblioteca de imagens da pessoa de olhos abertos, sendo assim, a imagem resultante não pisca.”

O mentor educativo da ONG Argentina Cibersegura, Javier Lombardi, comenta que existem programas que reconhecem o uso da ferramenta de distorção. “Ainda que pareçam autênticos, existem recursos que avaliam a probabilidade do conteúdo ser falso, como por exemplo, o Microsoft Video Authenticator. Esse software consegue analisar fotos e vídeos para dizer qual a chance daquele conteúdo ser real.”

As técnicas para a produção de vídeos ou áudios falsos avançaram e se transformaram em artifícios com o objetivo de manipular conteúdos e opiniões. Por isso, se torna necessário o discernimento e os cuidados para não ser enganado pelos conteúdos de manipulação. “É importante levar em conta que, quando as palavras ditas pela pessoa são escandalosas, inacreditáveis ou são claramente feitas para provocar uma reação emocional, existe uma grande possibilidade de que esse vídeo seja um deepfake”, complementa Lombardi.

TAGS

#cibersegurança#deepfake#Machine Learning#manipulação#TikTok

COMPARTILHE

Notícias Relacionadas