Barbie com IA pode ser um risco para a privacidade infantil
Advogado diz que parceria da OpenAI com a Mattel é uma potencial ameaça à LGPD, ao controle parental e aos dados das crianças
23/06/202504/01/2021
Por redação AIoT Brasil
Poucos avanços proporcionados pela inteligência artificial provocaram tanta polêmica quanto os softwares de reconhecimento facial. Um exemplo é a recente denúncia do jornal Washington Post de que a Huawei teria usado o sistema para disparar alertas às autoridades chinesas quando as câmeras de vigilância detectassem a presença de pessoas da etnia muçulmana uigur.
Agora, o Departamento de Polícia de Los Angeles (LAPD), na Califórnia, proibiu o uso de reconhecimento facial, com a alegação de que um grupo de 25 agentes o usaram sem autorização em seguidas tentativas de incriminar pessoas por meio do sistema Clearview AI, que se baseia em milhões de imagens coletadas na internet. De acordo com o portal norte-americano IoT News, o comando da LAPD emitiu uma diretriz segundo a qual os policiais só podem usar o sistema de identificação oficial do condado de Los Angeles, que reúne as fotos tiradas pela própria polícia e adicionadas ao sistema depois da prisão.
A discussão se concentra, basicamente, na possibilidade de invasão de privacidade e nas graves consequências provocadas por falhas na identificação, que podem levar à detenção de pessoas inocentes. Trata-se também de manter a confiança do público nas ferramentas de reconhecimento facial, bastante abalada por essas denúncias.
E há motivos para essa preocupação. James Craig, chefe da polícia de Detroit, admitiu recentemente que o reconhecimento facial cometia erros em 96% dos casos. Essa declaração foi dada depois que Robert Williams, um afro-americano, foi preso e acusado de roubo devido a um erro de identificação que motivou uma queixa severa da American Civil Liberties Union (ACLU) contra a polícia de Detroit. Segundo a entidade, uma imagem borrada do Clearview foi comparada por um algoritmo de reconhecimento facial à foto da carteira de motorista de Williams e bastou isso para justificar a prisão.
De acordo com a ACLU e outras entidades de direitos humanos, os algoritmos de reconhecimento facial desenvolvidos até agora têm uma tendência racista e machista. Estudos indicam que esses algoritmos de IA são quase 100% precisos quando usados em homens brancos, mas têm problemas sérios quando avaliam cores de pele mais escuras e mulheres, que assim se tornam vítimas fáceis de falsos positivos.
“Os programas de inteligência artificial e aprendizado de máquina não são neutros. As agendas de pesquisa e os conjuntos de dados com os quais trabalham muitas vezes herdam crenças culturais dominantes no mundo e legitimam a violência contra grupos marginalizados”, alertam os autores de uma carta aberta assinada por mais de mil pesquisadores, acadêmicos e especialistas que se opõem ao uso de IA por departamentos de polícia.
#AI#aprendizado de máquina#Clearview AI#IA#IA na policia#inteligência artificial#reconhecimento facial
Advogado diz que parceria da OpenAI com a Mattel é uma potencial ameaça à LGPD, ao controle parental e aos dados das crianças
23/06/2025Consultoria diz que essa tecnologia de segurança deve conquistar de 10% a 15% do mercado de IA agêntica até 2030
20/06/2025Ferramenta tem como foco o mercado financeiro e permitirá que os usuários façam perguntas e acompanhem as respostas por meio de linguagem natural
18/06/2025