AiotAiot


IA generativa e segurança: é possível conciliar?

O perigo, ao contrário do que se imagina, não é que estas ferramentas de IA roubem os nossos empregos, mas sim que exponham ao mundo nossas informações mais preciosas

19/09/2023

IA generativa e segurança: é possível conciliar?
Tamanho fonte

Por Manny Rivelo*

No vasto cenário da inteligência artificial (IA), um novo “player” tem dominado as atenções. Ferramentas de IA generativa como ChatGPT e Bard capturaram a imaginação do mundo, criando tudo rapidamente e sem muito esforço, de receitas de bolo a sinfonias completas. No entanto, os profissionais de segurança cibernética e os líderes empresariais precisam ter em mente que cada colaboração com ChatGPT também traz algumas considerações.

Já vemos casos em que engenheiros com conhecimento técnico o suficiente são capazes de criarem um ataque de malware Zero Day sem escrever uma única linha de código, apenas fazendo as perguntas certas ao ChatGPT. Os riscos que estas ferramentas generativas de IA representam para a sua organização são reais, como também as oportunidades para resultados positivos, como a geração de novas receitas e ganhos de produtividade.

A capacidade de aproveitar o poder da IA para criar medicamentos, abrir caminhos para o crescimento e revolucionar o atendimento ao cliente, faz com que não aproveitar seu potencial seja prejudicial às vantagens competitivas que sua empresa pode ter. Adicione à equação que negar aos funcionários o acesso a ferramentas que eles consideram essenciais para o seu trabalho apenas os levará a caminhos desconhecidos e possivelmente perigosos.

O risco de exposição à propriedade intelectual
ChatGPT, Bard e outros chatbots de IA generativos alimentam-se de dados, tornando-se mais fortes e mais capazes a cada byte. Seu apetite voraz por conhecimento aumenta sua capacidade de criar conteúdos rapidamente. Eles usam algoritmos, modelos generativos e técnicas de aprendizado profundo para extrair dados de treinamento. Isso pode levar a uma imensa criatividade e produtividade, pois coisas novas são produzidas em uma fração do tempo que levaria a um ser humano.

O perigo, ao contrário do que se imagina, não é que estas ferramentas de IA roubem os nossos empregos, mas sim que exponham ao mundo nossas informações mais preciosas. Hoje, as ferramentas generativas de IA estão acessíveis aos seus funcionários através de websites e aplicações, e é nesta mistura de dados e da Internet que reside o risco.

Os dados da sua organização já estão espalhados, residindo em dispositivos pessoais e corporativos, aplicativos SaaS e na nuvem. Com um único movimento descuidado ou malicioso, suas informações confidenciais podem ser divulgadas no chat, deixando seus segredos comerciais vulneráveis a hackers. A melhor defesa é trazer à luz essas ferramentas de IA, onde você possa controlar o acesso e aproveitar seu poder por meio de uma abordagem de zero-trust.

Adotando a segurança de Zero-Trust “Data-First”
Para mitigar os potenciais danos, as empresas devem adotar uma abordagem de Zero-Trust para proteger os seus dados e permitir o acesso a aplicações de IA. A proteção de dados torna-se fundamental à medida que o potencial para violações de informações continua a crescer. Você pode defender sua organização contra riscos relacionados à IA generativa implementando as estratégias a seguir:

1. Limite e controle o acesso. Estabeleça uma política de segurança corporativa para o uso de ferramentas de IA garantindo que todos os funcionários sigam as mesmas diretrizes de forma consistente. Aplique esta política com soluções como secure web gateways (SWG) e cloud access security brokers (CASB), que regulam o acesso a sites e versões SaaS de ferramentas de IA. Quando necessário, redirecione os visitantes para aplicativos aprovados e sancionados, em vez de sites de IA não sancionados.

2. Consolidar e simplificar a gestão. Unifique as políticas de segurança e simplifique o gerenciamento em vários canais e dispositivos para evitar violações de dados. Dessa forma, sua organização pode gerenciar diferentes ferramentas generativas de IA com uma única política, independentemente de os funcionários acessá-las em laptops da empresa ou em telefones pessoais. Permita que sua força de trabalho híbrida use IA com segurança enquanto monitora e controla facilmente as permissões.

3. Pare a perda de dados e IP. Implemente medidas de segurança de dados que habilitem a IA e protejam usuários/aplicativos para evitar a cópia ou colagem não autorizada de informações confidenciais (PII, PHI, IP, etc.) de fontes como e-mail e documentos comerciais. Integre políticas de prevenção contra perda de dados na web e em nuvens públicas para fortalecer ainda mais sua segurança contra a lista crescente de chatbots de IA recentemente disponíveis.

A IA generativa é uma faca de dois gumes; é uma parceria que pode gerar grandes prêmios ou armadilhas para o seu negócio. Restringir o acesso ao ChatGPT apenas aumenta o risco de shadow IT, e sufoca a produtividade. Por outro lado, deixar o acesso descontrolado abre a caixa de Pandora para um mundo de perigos ocultos. O caminho mais sensato é controlar o uso da IA e capacitar sua força de trabalho com segurança.

Ao aplicar de forma pragmática os princípios de Zero-Trust, sua empresa pode aproveitar o poder da IA generativa para impulsionar a eficiência e a produtividade. Visualize um mundo onde o ChatGPT ocupará seu lugar em sua lista de tecnologias sancionadas, assim como os dispositivos, sites ou aplicativos SaaS que você usa hoje. Com uma abordagem ponderada à IA generativa, as organizações não precisam ficar à margem. Eles podem adotar o ChatGPT com confiança para colher os frutos e, ao mesmo tempo, minimizar os riscos.

*Manny Rivelo é CEO da Forcepoint

TAGS

#Bard#chatbots#ChatGPT#inteligencia artificial IA#Zero Trust

COMPARTILHE

Notícias Relacionadas