AIoT Brasil BRASIL INTELIGÊNCIA ARTIFICIALE INTERNET DAS COISAS BRASIL

Fechar
A A

Tamanho fonte

Por redação AIoT Brasil

Poucos avanços proporcionados pela inteligência artificial provocaram tanta polêmica quanto os softwares de reconhecimento facial. Um exemplo é a recente denúncia do jornal Washington Post de que a Huawei teria usado o sistema para disparar alertas às autoridades chinesas quando as câmeras de vigilância detectassem a presença de pessoas da etnia muçulmana uigur.

Agora, o Departamento de Polícia de Los Angeles (LAPD), na Califórnia, proibiu o uso de reconhecimento facial, com a alegação de que um grupo de 25 agentes o usaram sem autorização em seguidas tentativas de incriminar pessoas por meio do sistema Clearview AI, que se baseia em milhões de imagens coletadas na internet. De acordo com o portal norte-americano IoT News, o comando da LAPD emitiu uma diretriz segundo a qual os policiais só podem usar o sistema de identificação oficial do condado de Los Angeles, que reúne as fotos tiradas pela própria polícia e adicionadas ao sistema depois da prisão.

A discussão se concentra, basicamente, na possibilidade de invasão de privacidade e nas graves consequências provocadas por falhas na identificação, que podem levar à detenção de pessoas inocentes. Trata-se também de manter a confiança do público nas ferramentas de reconhecimento facial, bastante abalada por essas denúncias.

E há motivos para essa preocupação. James Craig, chefe da polícia de Detroit, admitiu recentemente que o reconhecimento facial cometia erros em 96% dos casos. Essa declaração foi dada depois que Robert Williams, um afro-americano, foi preso e acusado de roubo devido a um erro de identificação que motivou uma queixa severa da American Civil Liberties Union (ACLU) contra a polícia de Detroit. Segundo a entidade, uma imagem borrada do Clearview foi comparada por um algoritmo de reconhecimento facial à foto da carteira de motorista de Williams e bastou isso para justificar a prisão.

De acordo com a ACLU e outras entidades de direitos humanos, os algoritmos de reconhecimento facial desenvolvidos até agora têm uma tendência racista e machista. Estudos indicam que esses algoritmos de IA são quase 100% precisos quando usados em homens brancos, mas têm problemas sérios quando avaliam cores de pele mais escuras e mulheres, que assim se tornam vítimas fáceis de falsos positivos.

“Os programas de inteligência artificial e aprendizado de máquina não são neutros. As agendas de pesquisa e os conjuntos de dados com os quais trabalham muitas vezes herdam crenças culturais dominantes no mundo e legitimam a violência contra grupos marginalizados”, alertam os autores de uma carta aberta assinada por mais de mil pesquisadores, acadêmicos e especialistas que se opõem ao uso de IA por departamentos de polícia.

Mais populares

02/06/2022

Inteligência artificial detecta fake news na internet

Leia mais
27/08/2021

Automação doméstica deve crescer 30% no Brasil

Leia mais
13/01/2021

Testamos os recursos tecnológicos do VW Nivus

Leia mais
28/06/2022

Que tal pagar o cafezinho com criptomoeda?

Leia mais
27/06/2022

Como os brasileiros veem as tecnologias wearable

Leia mais
break

Notícias Relacionadas