Brasil ganha um observatório de inteligência artificial
Instituição foi criada para monitorar a tecnologia no país e promove hoje em São Paulo o seu primeiro seminário
04/09/202415/07/2022
Por Ricardo Filho, estagiário do AIoT Brasil, com supervisão do editor
As eleições para cargos do Poder Executivo (presidente da república e governadores) e Legislativo (deputados e senadores) ocorrem este ano, e a tecnologia – principalmente as redes sociais – tem sido vital para as campanhas políticas. Com o uso de Inteligência Artificial, a tecnologia de deepfake – junção de das expressões do inglês “deep learning”, que significa aprendizado profundo, e “fake”, falso – utiliza machine learning (aprendizado de máquina) para a criação de imagens, vídeos ou áudios falsos, porém extremamente realistas.
Utilizada muitas vezes para entretenimento, as montagens fazem sucesso em redes sociais, como o TikTok. Recentemente, a atriz Margot Robbie foi vítima desses conteúdos falsos por um perfil de paródia, que acumula 767.7 mil seguidores. Com vídeos de dança e trends, perfis desavisados elogiam o conteúdo, convictos de que o perfil é oficial, enquanto outros alertam para a fraude. Comentários como “Ok, essa é ela ou não? Estou confuso” e “Deepfakes estão se tornando realmente boas” são usuais na caixa de comentários.
Apesar de serem muito utilizadas como instrumento de humor, especialistas relatam preocupações no que diz respeito ao combate à desinformação e, até mesmo, interferência na corrida eleitoral de 2022. Em entrevista ao AIoT Brasil, Marcelo Fontoura, professor de comunicação digital e jornalismo da PUC-RS, explicou quais são os primeiros passos para a verificação de uma deepfake.
“Elas se tornam cada vez mais difíceis de serem identificadas. Um ponto que se recomenda para verificação é acompanhar os olhos – isso quando se fala em um projeto visual. Normalmente eles não piscam, porque são feitos com a biblioteca de imagens da pessoa de olhos abertos, sendo assim, a imagem resultante não pisca.”
O mentor educativo da ONG Argentina Cibersegura, Javier Lombardi, comenta que existem programas que reconhecem o uso da ferramenta de distorção. “Ainda que pareçam autênticos, existem recursos que avaliam a probabilidade do conteúdo ser falso, como por exemplo, o Microsoft Video Authenticator. Esse software consegue analisar fotos e vídeos para dizer qual a chance daquele conteúdo ser real.”
As técnicas para a produção de vídeos ou áudios falsos avançaram e se transformaram em artifícios com o objetivo de manipular conteúdos e opiniões. Por isso, se torna necessário o discernimento e os cuidados para não ser enganado pelos conteúdos de manipulação. “É importante levar em conta que, quando as palavras ditas pela pessoa são escandalosas, inacreditáveis ou são claramente feitas para provocar uma reação emocional, existe uma grande possibilidade de que esse vídeo seja um deepfake”, complementa Lombardi.
#cibersegurança#deepfake#Machine Learning#manipulação#TikTok
Instituição foi criada para monitorar a tecnologia no país e promove hoje em São Paulo o seu primeiro seminário
04/09/2024Modelo Remarkable da assistente de voz tem lançamento previsto para outubro e indica uma mudança na estratégia da Amazon
03/09/2024Pesquisadores do MIT desenvolveram uma solução capaz de sinalizar anomalias em equipamentos como turbinas eólicas e satélites
16/08/2024