Os agentes empresariais de IA enfrentam hoje um problema basic de tempo: eles não conseguem agir facilmente em eventos críticos de negócios porque nem sempre estão cientes deles em tempo actual.
O desafio é a infraestrutura. A maioria dos dados corporativos reside em bancos de dados alimentados por trabalhos de extração-transformação-carga (ETL) que são executados de hora em hora ou diariamente – em última análise, muito lentos para agentes que precisam responder em tempo actual.
Uma maneira potencial de enfrentar esse desafio é fazer com que os agentes interajam diretamente com os sistemas de streaming de dados. Entre as principais abordagens em uso hoje estão o código aberto Apache Kafka e tecnologias Apache Flink. Existem também múltiplas implementações comerciais baseadas nessas tecnologias, Confluenteque é liderado pelos criadores originais de Kafka, sendo um deles.
Hoje, o Confluent está introduzindo um mecanismo de contexto em tempo actual projetado para resolver esse problema de latência. A tecnologia se baseia no Apache Kafka, a plataforma distribuída de streaming de eventos que captura dados à medida que os eventos ocorrem, e no Apache Flink de código aberto, o mecanismo de processamento de fluxo que transforma esses eventos em tempo actual.
A empresa também está lançando uma estrutura de código aberto, Flink Brokers, desenvolvida em colaboração com Alibaba Cloud, LinkedIn e Ververica. A estrutura traz recursos de agente de IA orientados a eventos diretamente para o Apache Flink, permitindo que as organizações criem agentes que monitoram fluxos de dados e acionam automaticamente com base nas condições, sem se comprometerem com a plataforma gerenciada do Confluent.
"Hoje, a maioria dos sistemas empresariais de IA não consegue responder automaticamente a eventos importantes em uma empresa sem que alguém os avise primeiro," Sean Falconer, chefe de IA da Confluent, disse ao VentureBeat. "Isto leva à perda de receitas, clientes insatisfeitos ou risco adicional quando um pagamento falha ou uma rede funciona mal."
A importância vai além dos produtos específicos da Confluent. A indústria está reconhecendo que os agentes de IA exigem infraestrutura de dados diferente das aplicações tradicionais. Os agentes não recuperam informações apenas quando solicitados. Eles precisam observar fluxos contínuos de eventos de negócios e agir automaticamente quando as condições o justificarem. Isso requer arquitetura de streaming, não pipelines em lote.
Lote versus streaming: por que o RAG sozinho não é suficiente
Para compreender o problema, é importante distinguir entre as diferentes abordagens para mover dados através de sistemas empresariais e como elas podem se conectar à IA agente.
No processamento em lote, os dados são acumulados nos sistemas de origem até que um trabalho agendado seja executado. Esse trabalho extrai os dados, transforma-os e carrega-os em um banco de dados ou information warehouse de destino. Isso pode ocorrer de hora em hora, diariamente ou até semanalmente. A abordagem funciona bem para cargas de trabalho analíticas, mas cria latência entre o momento em que algo acontece no negócio e o momento em que os sistemas podem agir sobre isso.
O streaming de dados inverte esse modelo. Em vez de esperar por trabalhos agendados, plataformas de streaming como o Apache Kafka capturam eventos à medida que ocorrem. Cada atualização do banco de dados, ação do usuário, transação ou leitura de sensor torna-se um evento publicado em um stream. O Apache Flink então processa esses fluxos para unir, filtrar e agregar dados em tempo actual. O resultado são dados processados que refletem o estado atual do negócio, atualizados continuamente à medida que novos eventos chegam.
Essa distinção se torna crítica quando você considera quais tipos de contexto os agentes de IA realmente precisam. Grande parte da discussão atual sobre IA empresarial concentra-se na geração aumentada de recuperação (RAG), que lida com a pesquisa semântica em bases de conhecimento para encontrar documentação, políticas ou informações históricas relevantes. RAG funciona bem para questões como "Qual é a nossa política de reembolso?" onde a resposta existe em documentos estáticos.
Mas muitos casos de uso empresarial exigem o que Falconer chama "contexto estrutural" — informações precisas e atualizadas de vários sistemas operacionais reunidas em tempo actual. Considere um agente de recomendação de emprego que requer dados de perfil de usuário do banco de dados de RH, comportamento de navegação da última hora, consultas de pesquisa de minutos atrás e vagas abertas atuais em vários sistemas.
"A parte que estamos desbloqueando para as empresas é a capacidade de atender essencialmente ao contexto estrutural necessário para fornecer a versão mais recente," Falcão disse.
O problema da conexão MCP: dados obsoletos e contexto fragmentado
O desafio não é simplesmente conectar a IA aos dados empresariais. O Mannequin Context Protocol (MCP), introduzido pela Anthropic no início deste ano, já padronizou a forma como os agentes acessam as fontes de dados. O problema é o que acontece depois que a conexão é feita.
Na maioria das arquiteturas empresariais atuais, os agentes de IA se conectam by way of MCP an information lakes ou armazéns alimentados por pipelines ETL em lote. Isso cria duas falhas críticas: os dados ficam obsoletos, refletindo a realidade de ontem, e não os eventos atuais, e estão fragmentados em vários sistemas, exigindo um pré-processamento significativo antes que um agente possa raciocinar sobre eles de maneira eficaz.
A alternativa – colocar servidores MCP diretamente na frente de bancos de dados operacionais e APIs – cria problemas diferentes. Esses endpoints não foram projetados para consumo de agentes, o que pode levar a altos custos de token, pois os agentes processam dados brutos excessivos e vários loops de inferência enquanto tentam entender respostas não estruturadas.
"As empresas têm os dados, mas muitas vezes eles estão obsoletos, fragmentados ou bloqueados em formatos que a IA não consegue usar de forma eficaz." Falcão explicou. "O mecanismo de contexto em tempo actual resolve isso unificando o processamento, o reprocessamento e o fornecimento de dados, transformando fluxos contínuos de dados em contexto ao vivo para decisões de IA mais inteligentes, rápidas e confiáveis."
A arquitetura técnica: três camadas para contexto de agente em tempo actual
A plataforma Confluent engloba três elementos que funcionam juntos ou adotados separadamente.
O Rmecanismo de contexto em tempo actual é a camada de infraestrutura de dados gerenciada no Confluent Cloud. Os conectores extraem dados para os tópicos do Kafka à medida que os eventos ocorrem. Os jobs do Flink processam esses fluxos em "conjuntos de dados derivados" — visualizações materializadas que unem sinais históricos e em tempo actual. Para suporte ao cliente, isso pode combinar o histórico da conta, o comportamento atual da sessão e o standing do inventário em um objeto de contexto unificado. O mecanismo expõe isso por meio de um servidor MCP gerenciado.
Agentes de streaming é a estrutura proprietária do Confluent para a construção de agentes de IA que rodam nativamente no Flink. Esses agentes monitoram fluxos de dados e acionam automaticamente com base nas condições — eles não esperam por solicitações. A estrutura inclui definições simplificadas de agentes, observabilidade integrada e integração nativa de Claude da Anthropic. Está disponível em visualização aberta na plataforma Confluent.
Agentes Flink é a estrutura de código aberto desenvolvida com Alibaba Cloud, LinkedIn e Ververica. Ele traz recursos de agentes orientados a eventos diretamente para o Apache Flink, permitindo que as organizações criem agentes de streaming sem se comprometerem com a plataforma gerenciada do Confluent. Eles mesmos lidam com a complexidade operacional, mas evitam a dependência do fornecedor.
A competição esquenta por infraestrutura de dados pronta para agente
A Confluent não está sozinha ao reconhecer que os agentes de IA precisam de infraestrutura de dados diferente.
Um dia antes do anúncio do Confluent, o rival Redpanda introduziu seu próprio Agentic Knowledge Airplane – combinando streaming, SQL e governança especificamente para agentes de IA. A Redpanda adquiriu o mecanismo SQL distribuído da Oxla para fornecer aos agentes endpoints SQL padrão para consultar dados em movimento ou em repouso. A plataforma enfatiza a conectividade compatível com MCP, a complete observabilidade das interações dos agentes e o que ela chama "controle de acesso agente" com tokens refinados e de curta duração.
As abordagens arquitetônicas diferem. Confluent enfatiza o processamento de fluxo com Flink para criar conjuntos de dados derivados otimizados para agentes. Redpanda enfatiza consultas SQL federadas em fontes diferentes. Ambos reconhecem que os agentes precisam de contexto em tempo actual com governança e observabilidade.
Além dos concorrentes diretos de streaming, Databricks e Snowflake são plataformas fundamentalmente analíticas que adicionam recursos de streaming. Seu ponto forte são consultas complexas em grandes conjuntos de dados, com streaming como um aprimoramento. Confluent e Redpanda invertem isso: o streaming é a base, com cargas de trabalho analíticas e de IA construídas sobre dados em movimento.
Como o contexto de streaming funciona na prática
Entre os usuários do sistema Confluent está o fornecedor de transporte Ocupado. A empresa está construindo um sistema operacional moderno para empresas de ônibus fretados que as ajuda a gerenciar cotações, viagens, pagamentos e motoristas em tempo actual.
"O streaming de dados é o que torna isso possível," Louis Bookoff, cofundador e CEO da Busie, disse ao VentureBeat. "Usando o Confluent, movemos dados instantaneamente entre diferentes partes do nosso sistema, em vez de esperar por atualizações noturnas ou relatórios em lote. Isso mantém tudo sincronizado e nos ajuda a lançar novos recursos com mais rapidez.
Bookoff observou que a mesma base é o que tornará a geração de IA valiosa para seus clientes.
"No nosso caso, cada ação, como uma cotação enviada ou um driver atribuído, torna-se um evento que é transmitido imediatamente pelo sistema," Bookoff disse. "Essa transmissão ao vivo de informações é o que permitirá que nossas ferramentas de IA respondam em tempo actual com baixa latência, em vez de apenas resumir o que já aconteceu."
O desafio, no entanto, é como entender o contexto. Quando milhares de eventos ao vivo fluem pelo sistema a cada minuto, os modelos de IA precisam de dados relevantes e precisos sem ficarem sobrecarregados.
"Se os dados não forem baseados no que está acontecendo no mundo actual, a IA pode facilmente fazer suposições erradas e, por sua vez, tomar ações erradas." Bookoff disse. "O processamento de fluxo resolve isso validando e reconciliando continuamente os dados ao vivo com a atividade no Busie."
O que isso significa para a estratégia empresarial de IA
Sa arquitetura de contexto de treinamento sinaliza uma mudança basic na forma como os agentes de IA consomem dados corporativos.
Os agentes de IA exigem um contexto contínuo que mix compreensão histórica com consciência em tempo actual — eles precisam saber o que aconteceu, o que está acontecendo e o que pode acontecer a seguir, tudo de uma vez.
Para empresas que avaliam essa abordagem, comece identificando casos de uso em que a desatualização dos dados prejudica o agente. A detecção de fraudes, a investigação de anomalias e a intervenção do cliente em tempo actual falham com pipelines em lote que são atualizados de hora em hora ou diariamente. Se seus agentes precisarem agir em eventos segundos ou minutos após sua ocorrência, o contexto de streaming se tornará necessário e não opcional.
"Ao criar aplicativos com base em modelos básicos, por serem inerentemente probabilísticos, você usa dados e contexto para orientar o modelo na direção em que deseja obter algum tipo de resultado," Falcão disse. "Quanto melhor você fizer isso, mais confiável e melhor será o resultado."











