arcadiasuite/docker
Claude 5816c14d00
feat: integração Manus→LiteLLM gateway + slot LLMFit + soberania de dados
- Conecta Manus ao LiteLLM via AI_INTEGRATIONS_OPENAI_BASE_URL (era hardcoded para OpenAI)
- Adiciona OLLAMA_BASE_URL ao serviço litellm no docker-compose.prod.yml (fix crítico: sem isso o fallback para Ollama não funcionava)
- Adiciona DATABASE_URL ao litellm para logging/auditoria de chamadas LLM
- Open WebUI agora também aponta para LiteLLM (acesso a todos os modelos na interface)
- litellm-config.yaml: slot comentado para LLMFit (TIER 1), Ollama como padrão soberano (TIER 2), externos como opt-in (TIER 3)
- Adiciona modelo nomic-embed-text para embeddings locais via Ollama
- .env.example: documenta AI_INTEGRATIONS_*, LLMFIT_BASE_URL, providers externos opcionais
- arcadia-default agora aponta para llama3.3 (Ollama) por padrão — soberania total sem configuração adicional

Estratégia de soberania:
  Dados NUNCA saem sem configuração explícita de API key externa.
  LLMFit turbocharge: quando ativado, modelos fine-tuned têm prioridade sobre Ollama.

https://claude.ai/code/session_01DinH3VcgbAv1d9MqnNxzdb
2026-03-13 17:07:41 +00:00
..
init-pgvector.sql feat: containerização completa + Knowledge Graph API + embeddings pgvector 2026-03-13 10:14:33 +00:00
litellm-config.yaml feat: integração Manus→LiteLLM gateway + slot LLMFit + soberania de dados 2026-03-13 17:07:41 +00:00
python-entrypoint.sh security: correções críticas de segurança e estabilidade 2026-03-13 14:34:51 +00:00