Infraestrutura Docker: - Dockerfile multi-stage para app Node.js - Dockerfile.python genérico para todos os microserviços Python - docker-compose.yml para desenvolvimento local (com perfis: bi, ai) - docker-compose.prod.yml para deploy no Coolify com Traefik - docker/init-pgvector.sql — instala extensão vector no PostgreSQL - docker/python-entrypoint.sh — seleciona serviço pelo SERVICE_NAME - docker/litellm-config.yaml — proxy LLM com fallback OpenAI → Ollama - .env.example com todas as variáveis documentadas Soberania de IA: - Ollama + Open WebUI como perfil 'ai' no docker-compose - LiteLLM como proxy unificado (OpenAI ↔ Ollama com fallback automático) Knowledge Graph (rotas faltantes implementadas): - server/graph/routes.ts — CRUD completo de nodes, edges, knowledge base + busca semântica - server/graph/service.ts — camada de serviço com indexação automática de embeddings - server/python/embeddings_service.py — FastAPI com pgvector para busca vetorial Correções de infraestrutura: - server/index.ts — DOCKER_MODE=true desativa spawn de processos filhos - server/routes.ts — registra /api/graph/* no Express https://claude.ai/code/session_01DinH3VcgbAv1d9MqnNxzdb |
||
|---|---|---|
| .. | ||
| routes.ts | ||
| service.ts | ||