Elevata
Venture Capital LATAM: IA acelera inteligência de investimentos

Case

Venture Capital LATAM: IA acelera inteligência de investimentos

5 de novembro de 2025Venture Capital LATAM

Sobre a Empresa

Um fundo de venture capital cujos fluxos de investimento dependem de acesso rápido ao conhecimento institucional — histórico de deals, discussões entre sócios, notas de diligência, decisões internas e atualizações do portfólio. Como acontece com muitos times de VC, o contexto operacional do fundo está distribuído entre as ferramentas usadas no dia a dia por sócios e analistas: Slack para conversas, Notion para registros de decisões e notas internas, Google Drive para decks e documentos e Affinity CRM para acompanhamento de deals e relacionamentos.

À medida que o fundo escala, manter continuidade entre essas fontes se torna essencial para a qualidade das decisões, a velocidade de execução e o onboarding de novos membros do time — sem depender de repasses manuais de informação.

Os Desafios

O conhecimento interno do fundo estava espalhado por múltiplos sistemas, tornando demorada a reconstrução de contexto para responder a uma única pergunta. As informações existiam em formatos e locais diferentes — threads no Slack, páginas no Notion, pastas no Drive e registros no CRM — e, com frequência, o time precisava alternar entre ferramentas ou “perguntar para alguém” para montar a história completa por trás de um deal, decisão ou relacionamento.

Antes do projeto, uma busca típica por contexto levava entre 9 e 12 minutos por pergunta. Além da perda de tempo, a fragmentação gerava atrasos operacionais concretos: detalhes importantes podiam passar despercebidos, o racional histórico das decisões nem sempre era fácil de rastrear até a fonte original e o onboarding de novos integrantes exigia esforço adicional para transmitir conhecimento que já existia — mas não estava acessível de forma consistente.

Ao mesmo tempo, a solução precisava atender a requisitos rigorosos de privacidade e controle de acesso. O fundo exigia que o assistente operasse integralmente dentro do seu próprio ambiente AWS e que as respostas fossem sempre baseadas apenas nos documentos que cada usuário estivesse autorizado a visualizar.

A Solução

Em parceria com a AWS, a Elevata desenhou e implementou um assistente de conhecimento baseado em GenAI, operando diretamente dentro do Slack e capaz de recuperar contexto confiável e sensível a permissões a partir dos sistemas internos do fundo.

Em vez de treinar um modelo customizado com os dados do fundo, a Elevata implementou uma arquitetura de Retrieval Augmented Generation (RAG). Nesse modelo, o assistente recupera conteúdos internos relevantes no momento da consulta e utiliza esse contexto recuperado para gerar a resposta, mantendo os dados sob controle e respeitando as permissões existentes.

Decisões de arquitetura e seleção de modelos

A Elevata avaliou múltiplas opções de foundation models disponíveis via Amazon Bedrock e SageMaker JumpStart, com foco em compreensão de linguagem natural, geração de respostas contextualizadas e integração segura com dados corporativos privados.

Os critérios priorizaram a capacidade de sumarizar contexto de investimentos e negócios com clareza, suportar recuperação de informações a partir de múltiplas fontes com segurança em nível de documento e operar integralmente dentro da conta AWS do fundo para atender aos requisitos de privacidade — ao mesmo tempo em que oferecia uma experiência nativa no Slack para maximizar adoção.

A arquitetura final combinou:

  • Amazon Bedrock para tarefas de geração de linguagem

  • Cohere para geração de embeddings semânticos

  • Amazon OpenSearch Service para busca vetorial e filtragem por metadados

  • RBAC no OpenSearch, aplicado durante a recuperação para garantir que cada usuário acesse apenas o conteúdo autorizado

  • AWS Cognito para autenticação baseada em JWT, integrada ao modelo de permissões

Essa abordagem garantiu que o controle de acesso fosse aplicado antes que qualquer contexto chegasse ao modelo, evitando vazamentos acidentais e mantendo as respostas sempre ancoradas em fontes permitidas.

Construção da camada de conhecimento com retrieval e metadados

Em vez de realizar fine-tuning de um LLM, a Elevata construiu uma camada de retrieval sobre o conteúdo existente do fundo — documentos, threads do Slack e registros do CRM — enriquecida por meio de chunking, embeddings e tagging com metadados.

O conteúdo foi indexado com um schema que permite filtragem por origem, proprietário ou grupo de usuários, tags e data, melhorando a qualidade da recuperação e garantindo rastreabilidade das respostas até a fonte original.

Um cluster dedicado de Amazon OpenSearch foi configurado com índices vetoriais k-NN para viabilizar recuperação semântica, além de pipelines de ingestão customizados para embutir e armazenar documentos conforme eram ingeridos. As regras de RBAC foram associadas à identidade do usuário, permitindo que a mesma pergunta gere resultados diferentes de acordo com as permissões — sem alterar a experiência do usuário.

Integração de dados com o stack do fundo

Para criar uma experiência de conhecimento unificada, a Elevata sincronizou o assistente com os principais sistemas do fundo:

  • Slack (canais e threads)

  • Notion (notas, políticas e registros de decisão)

  • Google Drive (decks, documentos e planilhas)

  • Affinity CRM (deals, contatos e registros de diligência)

Com essas fontes indexadas em uma camada comum de retrieval, o assistente passou a responder perguntas combinando contexto entre ferramentas — por exemplo, recuperando o histórico de discussões no Slack, validando o estágio atual do deal no Affinity e vinculando a resposta ao registro específico de decisão no Notion que documentou o racional.

Fluxo em tempo de execução e iteração

Na prática, os usuários interagem com o assistente diretamente no Slack. Uma pergunta em linguagem natural dispara a recuperação de trechos relevantes no OpenSearch, filtrados via RBAC. O contexto recuperado é então enviado a um modelo no Amazon Bedrock, que gera uma resposta baseada exclusivamente nessas fontes.

A Elevata conduziu duas rodadas iterativas de testes com analistas e sócios para refinar prompts, melhorar a precisão da recuperação e validar que as respostas respeitavam consistentemente as regras de RBAC e o tom interno do fundo. Essa iteração focou em acurácia, latência e tratamento de casos extremos, garantindo que o assistente fosse útil em fluxos reais de investimento — e não apenas em cenários controlados.

Os Resultados

O fundo passou a contar com um assistente centralizado e nativo no Slack, capaz de trazer contexto interno relevante em segundos — sem que o time precise alternar entre ferramentas ou depender de transferências informais de conhecimento. O impacto foi imediato nas operações diárias de investimento, onde velocidade e continuidade são fundamentais.

Após o deploy, o fundo observou ganhos mensuráveis:

  • ~75% de redução no tempo gasto com busca e alinhamento interno, acelerando a tomada de decisão

  • Tempo de resposta inferior a 2 segundos por consulta, viabilizando uso em tempo real no Slack

  • 94% de acurácia de entendimento e 89% de coerência contextual, segundo avaliação interna

  • 92% de uso semanal pelo time core, indicando alta adoção por analistas e sócios

  • Taxa de resolução na primeira pergunta de 0,85, reduzindo buscas repetidas e follow-ups manuais

Além de ganhos de velocidade, o assistente melhorou significativamente o onboarding e a continuidade do conhecimento institucional ao tornar o contexto mais fácil de recuperar e verificar. Como as respostas são sempre baseadas em documentos recuperados com metadados, o time consegue rastrear cada resposta até sua fonte original, fortalecendo a disciplina de documentação e reduzindo a dependência de memória individual.

Os próximos passos já estão mapeados em um roadmap de Fase 2. Com a base sensível a permissões estabelecida na Fase 1, o fundo pode expandir o assistente para fluxos mais proativos e orientados à ação, como alertas de deals, lembretes de follow-up, atualização de tags e outros loops de execução diretamente no Slack — ajudando o time a avançar oportunidades com menos coordenação manual.

Próximo passo

Vamos Projetar Seu Próximo Caso de Sucesso

Mostramos como aplicar cloud, dados e IA com governança para gerar impacto mensurável no negócio.

Entre em contato