arcadiasuite/.env.example

93 lines
4.9 KiB
Plaintext

# ─── Arcádia Suite — Variáveis de Ambiente ────────────────────────────────────
# Copie para .env e preencha os valores.
# NUNCA commite o arquivo .env real.
# ── Banco de dados ────────────────────────────────────────────────────────────
DATABASE_URL=postgresql://arcadia:arcadia123@localhost:5432/arcadia
PGHOST=localhost
PGPORT=5432
PGUSER=arcadia
PGPASSWORD=arcadia123
PGDATABASE=arcadia
# ── Aplicação ─────────────────────────────────────────────────────────────────
NODE_ENV=development
PORT=5000
SESSION_SECRET=troque-por-string-aleatoria-segura-em-producao
SSO_SECRET=arcadia-sso-secret-2024-plus-integration-key-secure
# ── Docker Mode (desativa spawn de processos filhos) ─────────────────────────
# Em produção com Docker, defina como "true"
DOCKER_MODE=false
# ── URLs dos microserviços Python ─────────────────────────────────────────────
# Em Docker: use nome do serviço (ex: http://contabil:8003)
# Em desenvolvimento local: use localhost
CONTABIL_PYTHON_URL=http://localhost:8003
BI_PYTHON_URL=http://localhost:8004
AUTOMATION_PYTHON_URL=http://localhost:8005
FISCO_PYTHON_URL=http://localhost:8002
PYTHON_SERVICE_URL=http://localhost:8001
# ── IA — OpenAI ───────────────────────────────────────────────────────────────
# Deixe vazio se usar apenas Ollama (soberania total)
OPENAI_API_KEY=
# ── IA — LiteLLM (gateway unificado — ÚNICA porta de entrada para LLMs) ──────
# Em Docker: http://litellm:4000 | Em dev local: http://localhost:4000
LITELLM_BASE_URL=http://localhost:4000
LITELLM_API_KEY=arcadia-internal
# ── IA — Manus Agent (aponta para LiteLLM como gateway) ──────────────────────
# Em Docker: AI_INTEGRATIONS_OPENAI_BASE_URL=http://litellm:4000/v1
# Em dev local: http://localhost:4000/v1
AI_INTEGRATIONS_OPENAI_BASE_URL=http://localhost:4000/v1
AI_INTEGRATIONS_OPENAI_API_KEY=arcadia-internal
# ── IA — Ollama (LLMs locais — soberania total) ───────────────────────────────
# Se Ollama está no host (fora do Docker): OLLAMA_BASE_URL=http://localhost:11434
# Se Ollama está em outro servidor: OLLAMA_BASE_URL=http://IP_DO_SERVIDOR:11434
OLLAMA_BASE_URL=http://localhost:11434
# ── IA — LLMFit (modelos fine-tuned locais — habilitar quando disponível) ─────
# LLMFit turbocharge: modelos treinados com dados do seu negócio
# Deixe vazio para desabilitar (LiteLLM cai para Ollama automaticamente)
LLMFIT_BASE_URL=
# ── IA — Providers externos (opt-in — soberania: dados não saem sem configurar)
# Deixe vazio para operação 100% soberana (apenas Ollama + LLMFit)
OPENAI_API_KEY=
ANTHROPIC_API_KEY=
GROQ_API_KEY=
# ── Open WebUI ────────────────────────────────────────────────────────────────
WEBUI_SECRET_KEY=troque-por-string-aleatoria-segura
# ── Arcádia Plus (Laravel/Fiscal) ─────────────────────────────────────────────
PLUS_URL=http://localhost:8080
PLUS_PORT=8080
PLUS_API_TOKEN=
# ── Superset (BI avançado) ────────────────────────────────────────────────────
SUPERSET_SECRET_KEY=troque-por-string-aleatoria-segura
SUPERSET_PORT=8088
# ── Redis ─────────────────────────────────────────────────────────────────────
REDIS_URL=redis://localhost:6379
# ── Domínio (produção) ────────────────────────────────────────────────────────
DOMAIN=seudominio.com.br
# ── Integrações externas (opcional) ──────────────────────────────────────────
# ERPNext
ERPNEXT_URL=
ERPNEXT_API_KEY=
ERPNEXT_API_SECRET=
# GitHub (para sync de código)
GITHUB_TOKEN=
GITHUB_REPO=
# WhatsApp (Baileys — sessões salvas no banco)
# Nenhuma variável adicional necessária — configurado via interface