Curso de cibersegurança abre vagas para grupos vulneráveis
Programa gratuito dá prioridade a mulheres, integrantes da comunidade LGBTQ+ e a pessoas pretas e pardas, com deficiência e acima de 60 anos
19/05/202518/06/2024
Por Ricardo Marques da Silva
Sem serem avisadas, milhares de pessoas que pegaram trens no Reino Unido nos últimos dois anos tiveram seus rostos escaneados por um sistema de câmeras inteligentes que utiliza um software da Amazon em testes de inteligência artificial. A denúncia foi feita pelo grupo britânico Big Brother Watch, que defende as liberdades civis, e envolve diretamente o órgão de infraestrutura ferroviária Network Rail, responsável pela supervisão dos testes.
Oficialmente, o sistema de monitoramento é usado para aumentar a segurança em oito estações de trem, entre as quais a Euston e a Waterloo, em Londres, e a Manchester Piccadilly. Porém, a tecnologia de IA e aprendizado de máquina das câmeras CCTV também seria capaz de reconhecer rostos e indicar a idade e até mesmo as emoções potenciais dos passageiros, com a sugestão de que os dados poderiam ser usados por empresas em ações de marketing.
Na última semana, o Big Brother Watch lançou na internet a campanha “Parem o reconhecimento facial” e afirmou: “A polícia e as empresas privadas no Reino Unido utilizam cada vez mais tecnologia de reconhecimento facial para nos monitorizar, categorizar e rastrear. A tecnologia funciona criando uma ‘impressão facial’ de quem passa na frente da câmera, processando dados biométricos tão sensíveis quanto uma impressão digital, muitas vezes sem o nosso conhecimento ou consentimento. Essa vigilância perigosamente autoritária é uma ameaça à nossa privacidade e à nossa liberdade e não tem lugar nas ruas da Grã-Bretanha”.
A intenção do grupo é iniciar uma ação judicial contra o uso de reconhecimento facial pela polícia e pelas empresas. A denúncia repercutiu no meios de comunicação, e veículos como a Wired procuraram o órgão ferroviário britânico: “A Network Rail não respondeu às perguntas sobre os testes e o status atual do uso de IA, detecção de emoções e questões de privacidade”, explicou a revista norte-americana.
Um porta-voz da Network Rail disse apenas que levam muito a sério a segurança da rede ferroviária: “Utilizamos uma gama de tecnologias avançadas em nossas estações para proteger os passageiros, nossos colegas e a infraestrutura ferroviária. Quando implantamos tecnologia, trabalhamos com a polícia e os serviços de segurança para garantir que estamos tomando medidas proporcionais e sempre cumprimos a legislação relativa ao uso de tecnologias de vigilância”.
A Wired também entrevistou Carissa Véliz, professora de psicologia do Instituto de Ética em IA da Universidade de Oxford, que afirmou: “Preocupo-me com a possibilidade de uma ladeira escorregadia. Há um impulso instintivo para expandir a vigilância. O ser humano gosta de ver mais, de ver mais longe. Mas a vigilância leva ao controle, e o controle conduz a uma perda de liberdade que ameaça a democracia”.
Campanha lançada pelo grupo Big Brother Watch
#aprendizado de máquina#câmeras inteligentes#dados biométricos#inteligência artificial#monitoramento#reconhecimento facial#segurança#tecnologias de vigilância#vigilância
Programa gratuito dá prioridade a mulheres, integrantes da comunidade LGBTQ+ e a pessoas pretas e pardas, com deficiência e acima de 60 anos
19/05/2025Empresa alega que o chatbot não garante a segurança dos dados e suas respostas podem ser influenciadas pela “propaganda chinesa”
12/05/2025Segundo a imprensa europeia, falta de luz pode ter sido ação de um ciberataque; brasileiro estava na Espanha durante partida do Master 1000 de Madri e está “preso” no local
28/04/2025