Memorando de Joe Biden relaciona a IA à segurança nacional
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/202418/06/2024
Por Ricardo Marques da Silva
Sem serem avisadas, milhares de pessoas que pegaram trens no Reino Unido nos últimos dois anos tiveram seus rostos escaneados por um sistema de câmeras inteligentes que utiliza um software da Amazon em testes de inteligência artificial. A denúncia foi feita pelo grupo britânico Big Brother Watch, que defende as liberdades civis, e envolve diretamente o órgão de infraestrutura ferroviária Network Rail, responsável pela supervisão dos testes.
Oficialmente, o sistema de monitoramento é usado para aumentar a segurança em oito estações de trem, entre as quais a Euston e a Waterloo, em Londres, e a Manchester Piccadilly. Porém, a tecnologia de IA e aprendizado de máquina das câmeras CCTV também seria capaz de reconhecer rostos e indicar a idade e até mesmo as emoções potenciais dos passageiros, com a sugestão de que os dados poderiam ser usados por empresas em ações de marketing.
Na última semana, o Big Brother Watch lançou na internet a campanha “Parem o reconhecimento facial” e afirmou: “A polícia e as empresas privadas no Reino Unido utilizam cada vez mais tecnologia de reconhecimento facial para nos monitorizar, categorizar e rastrear. A tecnologia funciona criando uma ‘impressão facial’ de quem passa na frente da câmera, processando dados biométricos tão sensíveis quanto uma impressão digital, muitas vezes sem o nosso conhecimento ou consentimento. Essa vigilância perigosamente autoritária é uma ameaça à nossa privacidade e à nossa liberdade e não tem lugar nas ruas da Grã-Bretanha”.
A intenção do grupo é iniciar uma ação judicial contra o uso de reconhecimento facial pela polícia e pelas empresas. A denúncia repercutiu no meios de comunicação, e veículos como a Wired procuraram o órgão ferroviário britânico: “A Network Rail não respondeu às perguntas sobre os testes e o status atual do uso de IA, detecção de emoções e questões de privacidade”, explicou a revista norte-americana.
Um porta-voz da Network Rail disse apenas que levam muito a sério a segurança da rede ferroviária: “Utilizamos uma gama de tecnologias avançadas em nossas estações para proteger os passageiros, nossos colegas e a infraestrutura ferroviária. Quando implantamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos tomando medidas proporcionais e sempre cumprimos a legislação relativa ao uso de tecnologias de vigilância”.
A Wired também entrevistou Carissa Véliz, professora de psicologia do Instituto de Ética em IA da Universidade de Oxford, que afirmou: “Preocupo-me com a possibilidade de uma ladeira escorregadia. Há um impulso instintivo para expandir a vigilância. O ser humano gosta de ver mais, de ver mais longe. Mas a vigilância leva ao controle, e o controle conduz a uma perda de liberdade que ameaça a democracia”.
#aprendizado de máquina#câmeras inteligentes#dados biométricos#inteligência artificial#monitoramento#reconhecimento facial#segurança#tecnologias de vigilância#vigilância
Documento emitido no dia 24 afirma que quando mal utilizada a tecnologia pode “minar instituições e processos democráticos”
29/10/2024A quantia é oferecida a pesquisadores de segurança que conseguirem executar um ataque remoto aos dados com código arbitrário
28/10/2024Novo app identifica golpes em mensagens, chamadas de vídeo e redes sociais, oferecendo mais segurança aos consumidores em tempo real
24/10/2024