É aplicação conversacional baseada em um grafo que utiliza a técnica de Retrieval-Augmented Generation (RAG), com um nó adicional de correção. Antes de gerar uma resposta com base em um documento semanticamente semelhante, o sistema avalia seu contexto, garantindo maior precisão e coerência.
O sistema adota uma arquitetura em camadas (Layered Architecture), utilizando FastAPI como framework principal para a API REST. O armazenamento é dividido entre ChromaDB, responsável pela gestão dos arquivos usados no RAG, e MongoDB, que armazena os logs da aplicação.
O processamento de linguagem natural é realizado por meio do LangChain e LangGraph, que orquestram os agentes e implementam a lógica baseada em grafos. Toda a infraestrutura é containerizada com Docker e Docker Compose, garantindo facilidade de implantação e escalabilidade.
A API e os containers já estão configurados. Para iniciar a aplicação, basta executar:
# BUILDAR E EXECUTAR O PROJETO
docker-compose -f docker/docker-compose.yml --env-file .env up --build
PS: Não se esqueça de alterar os Prompts.
```mermaid
graph TD
__start__([__start__
]):::first
find_references(find_references)
agent(agent)
tools(tools)
crag(crag)
generate(generate)
__end__([__end__
]):::last
crag -->generate;
find_references --> generate;
generate --> __end__;
tools --> crag;
__start__ -. general .-> agent;
__start__ -. specific .-> find_references;
agent -. continue .-> tools;
agent -. end .-> __end__
```
@CuriousGu 🇧🇷
Este projeto está sob a licença MIT, sinta-se a vontade para usar.
Veja o arquivo LICENSE para mais detalhes.
- Email: [email protected]
- Linkedin: Gustavo M. Ortega