Início Tecnologia O dilema da IA ​​da segurança: avançar mais rápido e arriscar mais

O dilema da IA ​​da segurança: avançar mais rápido e arriscar mais

12
0

Apresentado pela Splunk, uma empresa da Cisco


À medida que a IA evolui rapidamente de uma promessa teórica para uma realidade operacional, os CISOs e CIOs enfrentam um desafio elementary: como aproveitar o potencial transformador da IA, mantendo ao mesmo tempo a supervisão humana e o pensamento estratégico que a segurança exige. A ascensão da IA ​​agente está remodelando as operações de segurança, mas o sucesso exige equilibrar a automação com a responsabilidade.

O paradoxo da eficiência: Automação sem abdicação

A pressão para adotar a IA é intensa. As organizações estão a ser pressionadas a reduzir o número de funcionários ou a redirecionar recursos para iniciativas orientadas pela IA, muitas vezes sem compreenderem totalmente o que essa transformação implica. A promessa é convincente: a IA pode reduzir o tempo de investigação de 60 minutos para apenas 5 minutos, proporcionando potencialmente melhorias de produtividade de 10 vezes para analistas de segurança.

No entanto, a questão crítica não é se a IA pode automatizar tarefas – mas sim quais tarefas devem ser automatizadas e onde o julgamento humano permanece insubstituível. A resposta está na compreensão de que a IA é excelente na aceleração de fluxos de trabalho investigativos, mas as ações de remediação e resposta ainda exigem validação humana. Colocar um sistema off-line ou colocar um endpoint em quarentena pode ter um enorme impacto nos negócios. Uma IA que faça essa chamada de forma autônoma pode causar inadvertidamente a mesma interrupção que deveria evitar.

O objetivo não é substituir os analistas de segurança, mas liberá-los para trabalhos de maior valor. Com a triagem de alertas de rotina automatizada, os analistas podem se concentrar nos exercícios da equipe vermelha/equipe azul, colaborar com as equipes de engenharia na correção e se envolver na caça proativa de ameaças. Não faltam problemas de segurança para resolver — faltam especialistas em segurança para resolvê-los estrategicamente.

O déficit de confiança: mostrando seu trabalho

Embora a confiança na capacidade da IA ​​para melhorar a eficiência seja elevada, o cepticismo sobre a qualidade das decisões baseadas na IA continua a ser significativo. As equipes de segurança precisam de mais do que apenas conclusões geradas por IA – elas precisam de transparência sobre como essas conclusões foram alcançadas.

Quando a IA determina que um alerta é benigno e o fecha, os analistas do SOC precisam compreender as etapas investigativas que levaram a essa determinação. Que dados foram examinados? Que padrões foram identificados? Que explicações alternativas foram consideradas e descartadas?

Esta transparência cria confiança nas recomendações da IA, permite a validação da lógica da IA ​​e cria oportunidades para melhoria contínua. Mais importante ainda, ele mantém a interação humana crítica para decisões complexas que exigem uma compreensão diferenciada do contexto de negócios, dos requisitos de conformidade e dos possíveis impactos em cascata.

O futuro provavelmente envolve um modelo híbrido onde as capacidades autônomas são integradas em fluxos de trabalho guiados e manuais, com os analistas permanecendo envolvidos em decisões complexas.

A vantagem adversária: Combater a IA com IA – com cuidado

A IA apresenta uma faca de dois gumes em segurança. Embora estejamos implementando cuidadosamente a IA com proteções apropriadas, os adversários não enfrentam tais restrições. A IA reduz a barreira de entrada para invasores, permitindo o rápido desenvolvimento de explorações e a descoberta de vulnerabilidades em grande escala. O que antes period domínio de agentes de ameaças sofisticados poderá em breve estar acessível para script kiddies armados com ferramentas de IA.

A assimetria é impressionante: os defensores devem ser ponderados e avessos ao risco, enquanto os atacantes podem experimentar livremente. Se cometermos um erro ao implementar respostas de segurança autónomas, corremos o risco de derrubar sistemas de produção. Se a exploração orientada por IA de um invasor falhar, ele simplesmente tentará novamente sem consequências.

Isto cria um imperativo de usar a IA defensivamente, mas com a devida cautela. Devemos aprender com as técnicas dos invasores e, ao mesmo tempo, manter as barreiras de proteção que impedem que nossa IA se torne uma vulnerabilidade. O recente surgimento de MCP malicioso Os ataques à cadeia de suprimentos (Mannequin Context Protocol) demonstram a rapidez com que os adversários exploram a nova infraestrutura de IA.

O dilema das competências: Construir capacidades enquanto mantém as competências essenciais

À medida que a IA lida com um trabalho investigativo mais rotineiro, surge uma questão preocupante: as competências fundamentais dos profissionais de segurança irão atrofiar com o tempo? Este não é um argumento contra a adoção da IA ​​– é um apelo a estratégias intencionais de desenvolvimento de competências. As organizações devem equilibrar a eficiência proporcionada pela IA com programas que mantenham as competências essenciais. Isso inclui exercícios regulares que exigem investigação guide, treinamento cruzado que aprofunda a compreensão dos sistemas subjacentes e planos de carreira que evoluem as funções em vez de eliminá-las.

A responsabilidade é compartilhada. Os empregadores devem fornecer ferramentas, formação e cultura que permitam à IA aumentar, em vez de substituir, a experiência humana. Os funcionários devem envolver-se ativamente na aprendizagem contínua, tratando a IA como um parceiro colaborativo e não como um substituto do pensamento crítico.

A crise de identidade: governando a explosão de agentes

Talvez o desafio mais subestimado que temos pela frente seja o gerenciamento de identidade e acesso em um mundo de IA agente. IDC estima 1,3 bilhão de agentes até 2028 — cada um exigindo identidade, permissões e governança. A complexidade aumenta exponencialmente.

Agentes excessivamente permissivos representam um risco significativo. Um agente com amplo acesso administrativo poderia ser socialmente projetado para tomar ações destrutivas, aprovar transações fraudulentas ou exfiltrar dados confidenciais. Os atalhos técnicos que os engenheiros usam para "apenas faça funcionar" — conceder permissões excessivas para agilizar a implantação — criar vulnerabilidades que os adversários explorarão.

O controle de acesso baseado em ferramentas oferece um caminho a seguir, concedendo aos agentes apenas os recursos específicos de que precisam. Mas os quadros de governação também devem abordar a forma como os próprios LLMs podem aprender e reter informações de autenticação, permitindo potencialmente ataques de representação que contornam os controlos de acesso tradicionais.

O caminho a seguir: comece com conformidade e relatórios

Em meio a esses desafios, uma área oferece oportunidades imediatas e de alto impacto: conformidade contínua e relatórios de riscos. A capacidade da IA ​​de consumir grandes quantidades de documentação, interpretar requisitos complexos e gerar resumos concisos a torna ideally suited para trabalhos de conformidade e relatórios que tradicionalmente consomem enorme tempo dos analistas. Isto representa um ponto de entrada de baixo risco e alto valor para a IA em operações de segurança.

A base de dados: Habilitando o SOC alimentado por IA

Nenhuma destas capacidades de IA pode ter sucesso sem abordar os desafios fundamentais de dados enfrentados pelas operações de segurança. As equipes SOC lutam com dados isolados e ferramentas diferentes. O sucesso requer uma estratégia de dados deliberada que priorize a acessibilidade, a qualidade e contextos de dados unificados. Os dados relevantes para a segurança devem estar imediatamente disponíveis para os agentes de IA sem atritos, devidamente governados para garantir a confiabilidade e enriquecidos com metadados que forneçam o contexto de negócios que a IA não consegue compreender.

Pensamento last: Inovação com intencionalidade

O SOC autónomo está a emergir — não como um interruptor que pode ser acionado, mas como uma jornada evolutiva que exige adaptação contínua. O sucesso exige que adotemos os ganhos de eficiência da IA, mantendo ao mesmo tempo o julgamento humano, o pensamento estratégico e a supervisão ética que a segurança exige.

Não estamos substituindo as equipes de segurança por IA. Estamos construindo sistemas colaborativos e multiagentes onde a experiência humana orienta as capacidades de IA em direção a resultados que nenhum deles poderia alcançar sozinho. Essa é a promessa da period da IA ​​de agência – se formos intencionais sobre como chegaremos lá.


Tanya Faddoul, vice-presidente de produto, estratégia de clientes e chefe de gabinete da Splunk, uma empresa da Cisco. Michael Fanning é Diretor de Segurança da Informação da Splunk, uma empresa da Cisco.

Estrutura de dados Cisco fornece a arquitetura de dados necessária alimentada pela plataforma Splunk — malha de dados unificada, recursos de pesquisa federada, gerenciamento abrangente de metadados — para liberar todo o potencial da IA ​​e do SOC. Saiba mais sobre Estrutura de dados Cisco.


Artigos patrocinados são conteúdos produzidos por uma empresa que paga pela postagem ou tem relacionamento comercial com a VentureBeat, e estão sempre claramente marcados. Para mais informações, entre em contato vendas@venturebeat.com.

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui