Início Tecnologia A IA de código aberto da CrowdStrike e da NVIDIA oferece às...

A IA de código aberto da CrowdStrike e da NVIDIA oferece às empresas vantagem contra ataques à velocidade da máquina

22
0

Todo líder do SOC conhece a sensação: afogar-se em alertas, cego para a ameaça actual, preso na defesa em uma guerra travada na velocidade da IA.

Agora CrowdStrike e NVIDIA estão invertendo o script. Armadas com agentes autônomos equipados com modelos Charlotte AI e NVIDIA Nemotron, as equipes de segurança não estão apenas reagindo; eles estão contra-atacando os atacantes antes do próximo movimento. Bem-vindo à nova corrida armamentista da segurança cibernética. A combinação dos muitos pontos fortes do código aberto com a IA de agência mudará o equilíbrio de poder contra a IA adversária.

CrowdStrike e o ecossistema de agentes da NVIDIA combinam Charlotte AI AgentWorks, NVIDIA Nemotron modelos abertos, Designer de dados NVIDIA NeMo dados sintéticos, Kit de ferramentas do agente NVIDIA Nemoe Microsserviços NVIDIA NIM.

"Esta colaboração redefine as operações de segurança, permitindo que os analistas criem e implementem Agentes de IA em escala, aproveitando segurança confiável de nível empresarial com modelos Nemotron," escreve Bryan Catanzaro, vice-presidente de Pesquisa Aplicada de Aprendizado Profundo da NVIDIA.

A parceria visa permitir que agentes autônomos aprendam rapidamente, reduzindo riscos, ameaças e falsos positivos. Conseguir isso alivia muito os líderes do SOC e suas equipes, que lutam contra a fadiga dos dados quase todos os dias devido a dados imprecisos.

O anúncio no GTC Washington, DC, sinaliza a chegada de uma defesa à velocidade da máquina que pode finalmente igualar os ataques à velocidade da máquina.

Transformando a experiência de analistas de elite em conjuntos de dados em escala de máquina

A parceria é diferenciada pela forma como os agentes de IA são projetados para agregar continuamente dados de telemetria, incluindo insights de CrowdStrike Falcon Detecção e resposta gerenciada completa analistas.

"O que somos capazes de fazer é pegar a inteligência, pegar os dados, pegar a experiência dos nossos analistas Falcon Full e transformar esses especialistas em conjuntos de dados. Transformar os conjuntos de dados em modelos de IA e, então, ser capaz de criar agentes com base, realmente, em toda a composição e experiência que construímos dentro da empresa para que nossos clientes possam sempre se beneficiar em escala desses agentes," disse Dan Bernard, diretor de negócios da CrowdStrike, durante um briefing recente.

Aproveitando os pontos fortes dos modelos abertos NVIDIA Nemotron, as organizações poderão fazer com que seus agentes autônomos aprendam continuamente treinando nos conjuntos de dados do Falcon Full, o maior serviço de MDR do mundo que lida com milhões de decisões de triagem mensalmente.

A CrowdStrike tem experiência anterior em triagem de detecção de IA a ponto de lançar um serviço que amplia esse recurso em sua base de clientes. Triagem de detecção de Charlotte AI, projetado para ser integrado aos fluxos de trabalho de segurança existentes e se adaptar continuamente às ameaças em evolução, automatiza a avaliação de alertas com mais de 98% de precisão e reduz a triagem guide em mais de 40 horas por semana.

Elia Zaitsev, diretor de tecnologia da CrowdStrike, ao explicar como Charlotte AI Detection Triage é capaz de oferecer esse nível de desempenho, disse ao VentureBeat: "Não teríamos conseguido isso sem o apoio da nossa equipe Falcon Full. Eles realizam triagem em seu fluxo de trabalho, abordando manualmente milhões de detecções. O conjunto de dados anotados por humanos de alta qualidade que eles fornecem é o que nos permitiu alcançar uma precisão de mais de 98%."

As lições aprendidas com Charlotte AI Detection Triage aplicam-se diretamente à parceria com a NVIDIA, aumentando ainda mais o valor que ela tem potencial para oferecer aos SOCs que precisam de ajuda para lidar com o dilúvio de alertas.

O código aberto é uma aposta decisiva para que esta parceria funcione

Os modelos abertos Nemotron da NVIDIA abordam o que muitos líderes de segurança identificam como a barreira mais crítica para a adoção de IA em ambientes regulamentados, que é a falta de clareza sobre como o modelo funciona, quais são seus pesos e quão seguro ele é.

Justin Boitano, vice-presidente de computação empresarial e de borda da NVIDIA, falando pela NVIDIA durante uma recente coletiva de imprensa, explicou: "Os modelos abertos são onde as pessoas começam a tentar construir seu próprio conhecimento de domínio especializado. Em última análise, você deseja possuir o IP. Nem todo mundo quer exportar seus dados e depois importar ou pagar pela inteligência que consomem. Muitos países soberanos, muitas empresas em setores regulamentados desejam manter toda a privacidade e segurança dos dados."

John Morello, CTO e cofundador da Gutsy (agora Mínimo), disse ao VentureBeat que "a natureza de código aberto de BERT do Google O modelo de linguagem de código aberto permite que Gutsy personalize e treine seu modelo para casos de uso de segurança específicos, mantendo a privacidade e a eficiência." Morello enfatizou que os profissionais citam "mais transparência e melhores garantias de privacidade de dados, juntamente com grande disponibilidade de conhecimentos e mais opções de integração em suas arquiteturas, como principais razões para optar pelo código aberto."

Mantendo o equilíbrio de poder da IA ​​adversária sob controle

DJ Sampath da Cisco, vice-presidente sênior do grupo de software program e plataforma de IA da Cisco, articulou o imperativo de todo o setor para modelos de segurança de código aberto durante uma entrevista recente com VentureBeat: "A realidade é que os invasores também têm acesso a modelos de código aberto. O objetivo é capacitar o maior número possível de defensores com modelos robustos para fortalecer a segurança."

Sampath explicou que quando a Cisco lançou o Basis-Sec-8B, seu modelo de segurança de código aberto, no RSAC 2025, foi impulsionada por um senso de responsabilidade: "O financiamento para projetos de código aberto estagnou e há uma necessidade crescente de fontes de financiamento sustentáveis ​​na comunidade. É uma responsabilidade corporativa fornecer estes modelos e, ao mesmo tempo, permitir que as comunidades se envolvam com a IA de um ponto de vista defensivo."

O compromisso com a transparência estende-se aos aspectos mais sensíveis do desenvolvimento da IA. Quando surgiram preocupações sobre os dados de treinamento do DeepSeek R1 e possíveis comprometimentos, a NVIDIA respondeu de forma decisiva.

Como Boitano explicou ao VentureBeat, "As agências governamentais ficaram superpreocupadas. Eles queriam os recursos de raciocínio do DeepSeek, mas estavam um pouco preocupados, obviamente, com o que poderia ser treinado no modelo DeepSeek, que é o que realmente nos inspirou a abrir completamente o código-fonte de tudo nos modelos Nemotron, incluindo conjuntos de dados de raciocínio."

Para os profissionais que gerenciam a segurança de código aberto em grande escala, essa transparência é elementary para suas empresas. Itamar Sher, CEO da Selo de segurançaenfatizou para VentureBeat que "modelos de código aberto oferecem transparência," embora ele tenha notado que "gerenciar seus ciclos e conformidade continua sendo uma preocupação significativa." A empresa de Sher usa IA generativa para automatizar a correção de vulnerabilidades em software program de código aberto e, como uma CVE Naming Authority (CNA) reconhecida, a Seal pode identificar, documentar e atribuir vulnerabilidades, melhorando a segurança em todo o ecossistema.

Um objetivo elementary da parceria: trazer inteligência para o Edge

"Aproximar a inteligência de onde os dados estão e as decisões são tomadas será um grande avanço para as equipes de operações de segurança em todo o setor." Enfatizou Boitano. Essa capacidade de implantação de borda é especialmente crítica para agências governamentais com ambientes de TI fragmentados e muitas vezes legados.

VentureBeat perguntou a Boitano como foram as discussões iniciais com agências governamentais informadas sobre a parceria e seus objetivos de design antes do início dos trabalhos. "A sensação entre as agências com quem conversamos é que elas sempre sentem que, infelizmente, estão atrasadas na adoção de tecnologia," explicou Boitano. "A resposta foi: qualquer coisa que vocês possam fazer para nos ajudar a proteger os endpoints. Foi um processo tedioso e longo colocar modelos abertos nessas redes laterais superiores."

A NVIDIA e a CrowdStrike fizeram o trabalho elementary, incluindo reforço STIG, criptografia FIPS, compatibilidade de air hole e remoção das barreiras que atrasaram a adoção do modelo aberto em redes superiores. O NVIDIA AI Factory para design de referência governamental fornece orientação abrangente para a implantação de agentes de IA em organizações federais e de alta garantia, ao mesmo tempo que atende aos mais rígidos requisitos de segurança.

Como explicou Boitano, a urgência é existencial: "Ter uma defesa de IA em execução em sua propriedade que possa procurar e detectar essas anomalias e, em seguida, alertar e responder com muito mais rapidez, é apenas a consequência pure. É a única maneira de se proteger contra a velocidade da IA ​​neste momento."

avots

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui