Holanda e Itália citam risco de segurança e vetam o DeepSeek
Nova IA chinesa não poderá mais ser usada em dispositivos de funcionários públicos desses e de outros países
10/02/202531/01/2025
Por redação AIoT Brasil
O uso de ferramentas de inteligência artificial vem crescendo significativamente no Brasil, e essa popularização aumenta o risco de invasão dos sistemas das organizações, à medida que um número maior de funcionários passa a utilizar a tecnologia sem a devida supervisão. Esse alerta foi feito por Rafael Oneda, diretor de tecnologia da Approach Tecnologia, empresa de cibersegurança com sede em Florianópolis (SC), que destaca os fenômenos conhecidos como Shadow IA e Shadow IT.
De acordo com a Approach, Shadow IA se refere ao uso de recursos de IA pelos empregados da empresa fora do controle direto da área de TI, sem supervisão ou diretrizes adequadas. “Enquanto o Shadow IT tradicional está ligado ao uso não autorizado de dispositivos e aplicativos, o Shadow IA adiciona uma nova camada de complexidade: a manipulação de dados sensíveis em plataformas de IA, muitas vezes sem que se compreenda os riscos associados”, explicou.
Rafael Oneda acrescentou: “O avanço da IA generativa democratizou o acesso a ferramentas que antes eram exclusivas de especialistas. Hoje, qualquer pessoa com um computador e uma conexão à internet pode utilizar modelos de linguagem avançados para redigir contratos, fazer análises ou até desenvolver soluções complexas. A Shadow IA é uma realidade inevitável em um mundo em que a tecnologia avança mais rapidamente do que as políticas de controle”.
Em relação ao uso de IA generativa no país, a Approach citou uma nova pesquisa global do Google e da Ipsos, segundo a qual em 2024 54% dos brasileiros relataram ter utilizado a tecnologia, acima da média mundial de 48%: “E mais: três de cada quatro brasileiros entrevistados (78%) afirmaram utilizar IA no trabalho e 88% consideram essencial o uso da IA para lidar com informações complexas e encontrar soluções inovadoras para os desafios do negócio”.
Como exemplo, Oneda recorreu a um caso hipotético: “Imagine um colaborador utilizando uma IA generativa para elaborar um relatório estratégico. Ao fazer isso, ele pode inadvertidamente enviar dados confidenciais para servidores em outro país, sob legislações diferentes e sem qualquer garantia de proteção ou confidencialidade. Este é o cenário clássico de Shadow IA, em que o desconhecimento cria uma brecha perigosa”.
O especialista alertou também para a possibilidade de exposição de dados confidenciais sensíveis alimentados em plataformas de IA, que podem ser armazenados e utilizados por terceiros, dependendo das políticas da ferramenta, e a desconformidade regulatória em setores como finanças e governo, capaz de violar regulamentações locais e internacionais.
Entre outros problemas lembrados por Oneda estão o impacto na segurança cibernética, já que o uso descontrolado de IA pode criar portas de entrada para ataques, e a falta de rastreabilidade: “Como a Shadow IA é invisível para a TI, não há como rastrear quem utilizou a ferramenta, quais dados foram compartilhados ou quais decisões foram influenciadas. Para lidar com esses desafios, as organizações precisam abandonar o medo da transformação e assumir um papel proativo, garantindo que a IA seja um aliado estratégico, e não uma fonte de risco”, completou.
#ameaças cibernéticas#cibersegurança#dados sensíveis#IA generativa#modelos de linguagem#riscos da IA#seguranca cibernetica#Shadow IA#Shadow IT
Nova IA chinesa não poderá mais ser usada em dispositivos de funcionários públicos desses e de outros países
10/02/2025Com base na análise de mais de 1.500 relatórios, especialista indica as principais vulnerabilidades nos sistemas das organizações
28/01/2025Alerta feito pela Kaspersky destaca que o Elpaco deriva do Mimic e consegue criptografar arquivos e dificultar a recuperação
22/01/2025