Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202414/07/2022
Por redação AIoT Brasil
Com base em uma inteligência artificial que monitorou os dados de crimes ocorridos em Chicago, nos Estados Unidos, entre 2014 e 2016, cientistas da universidade daquela cidade criaram um modelo de gêmeo digital, que foi capaz de prever a probabilidade de certos tipos de delitos nas semanas seguintes, com 90% de precisão. Posteriormente, a mesma tecnologia foi aplicada em outras sete cidades norte-americanas, com resultados semelhantes, ao mesmo tempo em que forneceu uma análise estatística que confirmou o preconceito racial presente na ação da polícia.
De acordo com Ishanu Chattopadhyay, um dos autores do estudo, o modelo descobriu que houve um aumento no número de detenções nos crimes relatados em bairros de alta renda, enquanto a estatística se manteve estável em áreas de baixa renda, o que sugere um viés racista na resposta da polícia. A taxa de criminalidade na cidade, em 2020, foi 67% superior à média nacional, segundo dados da AreaVibes, e o preconceito racial no policiamento tem altos custos econômicos e aumenta a desigualdade em áreas mais pobres.
Chattopadhyay, que disponibilizou publicamente os dados e o algoritmo para aumentar o escrutínio, lamentou que as descobertas fossem usadas como uma ferramenta reativa para a polícia, e não para políticas de alto nível, como os pesquisadores esperavam: “Idealmente, se você pode prever ou prevenir crimes, a única resposta é não enviar mais policiais ou inundar uma comunidade específica com a aplicação da lei”, disse o professor em entrevista ao Business Insider. “Se a intenção é prevenir o crime, há uma série de outras coisas que poderíamos fazer para evitar que essas coisas aconteçam e para ajudar as comunidades como um todo”, acrescentou.
Em 2016, a polícia de Chicago testou um modelo para indicar as pessoas com maior probabilidade de se envolverem em um tiroteio, mas a lista secreta acabou revelando que 56% dos homens negros que moravam na cidade apareciam na lista, alimentando acusações de racismo. Os pesquisadores lembraram que, embora alguns modelos tentem erradicar os preconceitos, muitas vezes tiveram o efeito oposto, com acusações de que o racismo nos dados subjacentes aumenta o comportamento tendencioso.
James Evans, coautor do estudo, observou: “Demonstramos a importância de descobrir padrões específicos na cidade para a previsão de crimes, o que gera uma nova visão dos bairros e nos permite fazer novas perguntas e avaliar a ação policial de novas maneiras”.
#crimes#gêmeo digital#inteligência artificial#racismo
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024