AiotAiot


Meta exigirá identificação de conteúdo político manipulado

Eleição norte-americana leva a empresa a restringir a publicação de conteúdo produzido ou alterado com o uso de inteligência artificial

14/11/2023

Meta exigirá identificação de conteúdo político manipulado
Tamanho fonte

Por redação AIoT Brasil

“Estamos anunciando uma nova política para ajudar as pessoas a entender quando um anúncio político divulgado no Facebook e no Instagram foi criado ou alterado digitalmente, inclusive por meio do uso de inteligência artificial. Essa política entrará em vigor em 2024 e será exigida globalmente”: com essa mensagem publicada na quarta-feira passada no site oficial do Facebook, a Meta mostrou-se disposta a tentar controlar a publicação de fake news em suas redes, especialmente no período que antecede a eleição presidencial norte-americana que ocorrerá em 5 de novembro do ano que vem.

De acordo com a empresa de Mark Zuckerberg, que também é dona do WhatsApp, a necessidade de transparência vai se estender a imagens, áudios e vídeos alterados de eventos reais e aos que “retratam pessoas com aparência real que não existem”. Os usuários deverão ser notificados quando os anúncios estiverem marcados como “alterados digitalmente”.

Especificamente, a Meta disse que a exigência deverá ser cumprida sempre que uma publicação relacionada a questões sociais, eleitorais ou políticas contiver uma imagem ou vídeo fotorrealista ou áudio com som realista que tenha sido criado digitalmente ou alterado com essas intenções:
. representar uma pessoa real dizendo ou fazendo algo que não disse ou fez;
. mostrar uma pessoa de aparência realista que não existe ou um evento de aparência realista que não aconteceu, ou alterar a filmagem de um evento real que aconteceu;
. retratar um evento realista que supostamente ocorreu, mas que não seja uma imagem, vídeo ou gravação de áudio verdadeira do evento.

“Se determinarmos que um anunciante não divulga um conteúdo de acordo com o exigido, rejeitaremos o anúncio, e a reincidência poderá resultar em penalidades contra o anunciante. Compartilharemos detalhes adicionais sobre o processo específico pelo qual os anunciantes passarão durante o processo de criação do anúncio”, esclareceu a empresa.

O Google anunciou recentemente uma política semelhante em suas plataformas, enquanto o TikTok não permite publicidade política. Esses cuidados visam diretamente à intensa atividade política que ocorrerá em 2024, ano em que, além dos Estados Unidos, aproximadamente 50 países farão eleições gerais, entre os quais o Reino Unido, a Índia, a Indonésia e algumas nações europeias.

E não faltam motivos para preocupação com os poderosos recursos oferecidos pela IA e a IA generativa na manipulação de mensagens políticas e na divulgação de deep fakes. Entre os exemplos mais conhecidos, está um vídeo falso em que Volodymyr Zelensky, presidente da Ucrânia, disse que iria se render à Rússia. Nos Estados Unidos, foram divulgados um vídeo em que Donald Trump era preso e outro com acusações a Joe Biden, ambos falsos.

TAGS

#conteúdo político manipulado#deep fakes#eleição presidencial#fake news#IA generativa#inteligência artificial#Meta#publicidade política#transparência

COMPARTILHE

Notícias Relacionadas