AiotAiot


Como a inteligência artificial impacta a cibersegurança

Marcelo Ciasca, CEO da Stefanini, destaca em sua coluna de estreia no AIoT Brasil a importância da IA para a segurança digital, mas lembra que os hackers também usam a tecnologia

13/06/2023Por Marcelo Ciasca

Como a inteligência artificial impacta a cibersegurança
Tamanho fonte

Por Marcelo Ciasca*

A Inteligência Artificial (IA) representa um dos principais avanços, fazendo chegar até nós muitas facilidades para os negócios e para a vida. E uma das aplicações para as quais ela vem sendo mais requisitada é a segurança. O motivo é que praticamente tudo na vida tem dois lados: a mesma complexidade humana capaz de criar soluções boas para o progresso de todos também usa as inovações para roubos de dados e outros males.

A IA vem impactando o mercado de cibersegurança porque é capaz de detectar e prever medidas de defesa rapidamente e com cada vez mais eficiência. Analisando a questão tanto do ponto de vista de empresas, consultorias ou prestadores de serviços, existe um risco associado à utilização de inteligência artificial para aperfeiçoar operações e serviços, porém os ganhos tendem a ser maiores neste mercado em ebulição.

A tecnologia pode ser usada nas ferramentas de detecção de ameaças, resposta automática para incidentes, melhoria de análise de informações e na autenticação de clientes, prevenção de fraudes, entre outros. São tendências muito fortes que devem crescer em 2023 e nos próximos anos. De acordo com a consultoria IDC, a união da IA com a automação (Intelligent Process Automation – IPA) é uma tendência: 20,5% das empresas apontam essa tecnologia como estratégica e, por isso, receberá mais investimentos.

Os produtos de cibersegurança que usam IA melhoram a qualidade para automatizar esse tipo de análise de resposta. Eles são capazes de analisar uma quantidade extraordinária de incidentes ou eventos de segurança. Imaginando a seguinte situação: se a empresa tivesse que tratar 50 mil incidentes/mês, colocar pessoas para fazer o trabalho seria praticamente impossível tratar das questões.

Com a IA, criam-se regras para responder de forma automática em questão de segundos, uma vez que 80% desse volume está focado em alertas de baixa e muito baixa criticidade. Os 20% que ficam para análise humana são tratados por analistas com nível de conhecimento mais elevado e com a capacidade de avaliar um volume grande de dados para a tomada de decisão mais rápida e assertiva.

Por outro lado, os hackers também fazem uso da mesma tecnologia para desenvolver softwares maliciosos, malwares, ransomwares, phishing e ameaças na nuvem. Além de todos esses mecanismos, ainda há o fator humano: eles buscam as vulnerabilidades dentro dos clientes para realizar os ataques. Por isso, ter um design de segurança centrado no ser humano e fazer um aprimoramento da gestão de pessoas para a sustentabilidade dos programas de segurança, ambos apontadas pela consultoria Gartner, tendem a crescer e se tornar padrão nas organizações que desejam reforçar sua segurança.

Mesmo com o desenvolvimento constante de novos produtos feitos com IA, as organizações podem ser alvos de exploração por parte de pessoas mal-intencionadas, que conseguem sucesso em invasões por meio de perguntas a clientes ou por outros meios.

Outro risco associado é o vazamento de informações que não deveriam ser divulgadas pela IA. Acontece que ela pode ter sido construída com uma massa de dados errada em sua base durante o abastecimento e treinamento, o que pode levar à tomada de decisões erradas e riscos jurídicos para as empresas.

Todas as áreas podem ser afetadas por esse tipo de risco, mas uma das mais sensíveis é a de saúde. Segundo uma pesquisa da consultoria Frost & Sullivan, no mundo todo o volume de tentativas de ataques a sites e serviços de saúde cresceu 715% em junho de 2020, justamente no ano da pandemia.

Os sistemas precisam ser constantemente aperfeiçoados porque devem, ao mesmo tempo, permitir mais acessos de médicos e profissionais de saúde alimentando com dados, mas garantindo a privacidade dos pacientes.

Na tentativa de combater em todas as frentes, o uso do ChatGPT é uma tendência crescente, que vem sendo bastante estudada para uso na análise do comportamento de hackers e, assim, poder responder com mais efetividade.

A IA generativa pode ser utilizada em tarefas como: análise de logs e detecção de anomalias; resposta a incidentes; geração de relatórios automatizados; simulação de ataques e testes de penetração; detecção de phishing e engenharia social; análise de malware e monitoramento de segurança em tempo real, entre outros.

É importante lembrar que a IA tem uma transparência limitada, já que sua rede neural ainda não é totalmente aberta e conhecida. Essa característica faz com que existam alguns riscos operacionais e tecnológicos para sua utilização. Para combater o problema, no entanto, já existem soluções que usam vários frameworks para avaliar os riscos do uso da IA dentro dos ambientes das corporações.

O uso dessa tecnologia representa um grande ganho de escala na resolução de problemas, pois é capaz de fazer melhor e cada vez mais rápido o que é realizado hoje. Com o treinamento e aperfeiçoamento constante dessa tecnologia, estaremos prontos para resolver problemas que ainda não conhecemos, mas não escaparão dessas soluções no futuro.

*Marcelo Ciasca é CEO da Stefanini Brasil, multinacional brasileira da área de soluções digitais.

TAGS

#cibersegurança#consultoria IDC#inteligencia artificial IA#Intelligent Process Automation – IPA#phishing#Stefanini

COMPARTILHE

Notícias Relacionadas