A AWS publicou arquitetura de referência que combina Amazon Bedrock, Neptune e Mem0 pra dar memória persistente e específica da empresa a agentes de IA. A TrendMicro usou o stack pra construir o Trend's Companion, chatbot que cruza memória curta de conversa com knowledge graph organizacional. Inclui human-in-the-loop pra validar o que entra na base.
A AWS publicou um post técnico (coescrito com Shawn Tsai, da TrendMicro) detalhando como montar memória corporativa pra agentes de IA no Amazon Bedrock, usando Amazon Neptune como knowledge graph e Mem0 pra gestão de memória curta e longa.
O caso real é o Trend's Companion, chatbot da TrendMicro (uma das maiores empresas de antivírus do mundo) que atende clientes enterprise via conversa natural.
Chatbot enterprise precisa de três coisas ao mesmo tempo: manter histórico de conversa pra dar continuidade, puxar conhecimento específico da empresa em escala, e garantir que essa memória fique precisa, segura e atualizada.
O desafio real é casar memória de longo prazo (conhecimento organizacional) com memória curta (conversa em andamento), e ainda permitir compartilhamento entre a empresa inteira. A TrendMicro trabalhou com o AWS Generative AI Innovation Center pra resolver isso.
O stack combina vários serviços AWS:
Mensagens do usuário passam pelo Claude no Bedrock, que extrai entidades, relações e potenciais memórias. Esses itens são embeddados com o Bedrock Titan Text Embed e buscados em paralelo no OpenSearch e no Neptune. O que é relevante volta, é atualizado pelo modelo, re-embeddado e reindexado. Ciclo fechado: o knowledge graph do Neptune fica consistente com o que a conversa revela.
Na hora da query do usuário, mesma pipeline de embedding busca em dois lugares: vetores no OpenSearch e triplas de entidade no Neptune. O resultado passa por rerank (via Amazon Bedrock Rerank ou Cohere Rerank) pra garantir que o contexto mais preciso chegue ao modelo. Essa dupla estratégia combina flexibilidade semântica (OpenSearch) com precisão estruturada (Neptune).
Pra cada resposta da IA, o sistema mapeia quais frases vieram de quais memórias, e gera um relatório de avaliação. O usuário aprova ou rejeita. Memória aprovada fica; rejeitada some do OpenSearch e do Neptune.
Esse loop de validação é o ponto mais interessante da arquitetura: resolve na marra o problema de memória tóxica em agente enterprise, onde uma alucinação vira fato na base e contamina conversa futura.
O post usa uma query curiosa pra ilustrar o ganho do Neptune: "Quem reconheceu Kublai como governante?"
Sem knowledge graph, o modelo responde algo vago: "Kublai foi um governante mongol reconhecido por diferentes grupos."
Com a tripla estruturada (Ilkhans, recognized, Kublai) do Neptune entrando no context window, a resposta fica: "Segundo a base de conhecimento organizacional, Kublai foi reconhecido pelos Ilkhans como governante."
É um exemplo meio didático, mas mostra o ponto: triplas no grafo dão ao LLM base verificável pra responder, em vez de inferir do pré-treino.
A TrendMicro cita que o sistema ainda está em avaliação e tuning. Planos: cobertura maior de grafo, novas pipelines de atualização e suporte multilíngue.
Na prática, pra quem já roda Bedrock e pensa em agente com memória corporativa, esse é o blueprint oficial da AWS. Vale clonar o sample do GitHub e rodar antes de comprar solução fechada de RAG (Retrieval-Augmented Generation) enterprise.
Documentação técnica completa no Amazon Neptune Documentation.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0