From 5bf2254bc1e5898c3b13f14e5a11d0f23bae9bd7 Mon Sep 17 00:00:00 2001 From: Claude Date: Fri, 13 Mar 2026 17:37:42 +0000 Subject: [PATCH] =?UTF-8?q?chore:=20adiciona=20CLAUDE.md=20com=20contexto?= =?UTF-8?q?=20do=20projeto=20para=20sess=C3=B5es=20Claude?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Arquivo de contexto compacto para economizar tokens em novas sessões. Inclui: stack, estrutura, arquitetura de IA, branch de dev, status de implementação. https://claude.ai/code/session_01DinH3VcgbAv1d9MqnNxzdb --- CLAUDE.md | 91 +++++++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 91 insertions(+) create mode 100644 CLAUDE.md diff --git a/CLAUDE.md b/CLAUDE.md new file mode 100644 index 0000000..54b29b6 --- /dev/null +++ b/CLAUDE.md @@ -0,0 +1,91 @@ +# Arcádia Suite — Contexto para Claude + +## Stack +- **Frontend:** React 18 + TypeScript + Tailwind + shadcn/ui +- **Backend:** Express.js + Socket.IO + Drizzle ORM +- **DB:** PostgreSQL 16 + pgvector +- **Microserviços Python:** FastAPI (portas 8001-8005) +- **Deploy:** Docker Compose + Coolify + PM2 +- **Real-time:** Socket.IO + +## Estrutura principal +``` +server/ + manus/service.ts # Agente principal (169KB, 30+ tools, ReAct pattern) + autonomous/ # Pipeline multi-agente (Architect→CodeGen→Validator) + blackboard/ # Coordenação de agentes + python/ # 8 microserviços Python (fisco, contabil, bi, etc.) + learning/service.ts # Knowledge management + [modulo]/routes.ts # 38 grupos de rotas (crm, erp, whatsapp, chat...) +client/ # 66 páginas React +shared/schema.ts # Schema do banco (7317 linhas, Drizzle ORM) +docker/ + litellm-config.yaml # Roteamento de LLMs (TIER 1: LLMFit, TIER 2: Ollama, TIER 3: externos) +``` + +## Arquitetura de IA +``` +Manus / Agents / Embeddings + │ AI_INTEGRATIONS_OPENAI_BASE_URL + ▼ + LiteLLM :4000 (gateway unificado, loga tudo no banco) + ├──► LLMFit (TIER 1 — fine-tuned, soberano) [slot pronto, comentado] + ├──► Ollama :11434 (TIER 2 — local, padrão) + └──► OpenAI/Anthropic/Groq (TIER 3 — opt-in, só se API key configurada) +``` + +**Variáveis chave do Manus:** +``` +AI_INTEGRATIONS_OPENAI_BASE_URL=http://litellm:4000/v1 +AI_INTEGRATIONS_OPENAI_API_KEY=${LITELLM_API_KEY} +``` + +## Docs estratégicos +- `DOCUMENTATION.md` — docs técnicas completas +- `PLANO_EVOLUCAO_ARCADIA.md` — roadmap e evolução +- `MAPA_SISTEMA_ARCADIA.md` — mapa do sistema + +## Branch de desenvolvimento +Sempre commitar em: `claude/analyze-project-0mXjP` +Push: `git push -u origin claude/analyze-project-0mXjP` + +## O que está implementado +- ✅ Manus (agente autônomo, 30+ ferramentas) +- ✅ Pipeline de agentes autônomos +- ✅ Embeddings semânticos (pgvector) +- ✅ CRM, WhatsApp, Email, Chat +- ✅ ERP/ERPNext, Fiscal (NF-e, SPED), Contábil (DRE, balanço) +- ✅ BI workspace, Retail/POS, RH, Produtividade +- ✅ Docker dev + prod, LiteLLM gateway + +## O que ainda falta +- ❌ LLMFit: slot pronto em `litellm-config.yaml`, só habilitar quando disponível +- ❌ Testes automatizados / CI-CD +- ❌ Monitoramento (APM, Sentry, métricas) +- ❌ Multi-tenancy completo +- ❌ Rate limiting em todos os endpoints (parcial) + +## Comandos úteis +```bash +# Dev +docker compose up -d +docker compose --profile ai up litellm ollama -d + +# Prod (Coolify) +docker compose -f docker-compose.prod.yml up -d + +# Migrations +npm run db:push + +# Build +npm run build +``` + +## Variáveis de ambiente críticas (ver .env.example) +``` +SESSION_SECRET, SSO_SECRET # gerar strings seguras em prod +AI_INTEGRATIONS_OPENAI_BASE_URL # aponta para LiteLLM +LLMFIT_BASE_URL # LLMFit quando disponível +OLLAMA_BASE_URL # Ollama host ou container +OPENAI_API_KEY # opcional (soberania: deixar vazio) +```