Visão Geral
O que é a plataforma ZZYON e como navegar a documentação
A plataforma ZZYON é o ecossistema de agentes IA, torres operacionais e infraestrutura da Ícaro Express Logistics. Esta documentação é a fonte canônica da arquitetura — atualizada semanalmente por um agente doc-auditor que detecta divergências entre o código e o que está escrito aqui.
Comece por aqui
Quickstart
Onde estão as coisas, quem faz o quê, primeiros comandos
Decisões (ADRs)
Por que escolhemos as coisas que escolhemos
Como a doc é organizada
Arquitetura
Multi-LLM router, fallback chain, Langfuse
Agentes
Cláudio · RA1000 · Roberval
Torres
8 painéis Next.js em produção
Infraestrutura
Mac mini, Tailscale, PM2, Supabase, Vercel
Runbooks
Deploys, escalações, incidentes
Automação
SKILLs e agentes de manutenção
Stack rápida
| Camada | Tecnologia |
|---|---|
| LLMs | Claude Haiku 4.5 / Sonnet 4.6 / Opus 4.7 · Gemini 2.5 Flash/Pro · GPT-4o · Sonar |
| Observabilidade | Langfuse self-hosted (Mac mini) |
| Banco | Supabase Cloud (hbrvoairynwsliyxxgsg) + Self-hosted (Mac mini) |
| Apps | Next.js 16 + Tailwind v4 + Vercel |
| Mensageria | Evolution API + Cloudflare Tunnel |
| Rede | Tailscale (MacBook + Mac mini) |
| Agendamento | Anthropic Scheduled Tasks |
Princípios
- AI-native: tudo o que pode ser delegado pra agente, é. SKILLs com cron resolvem o operacional.
- Markdown-as-code: doc vive no repo, ao lado do código que descreve. Ver ADR-004.
- Observabilidade primeiro: cada chamada LLM passa por Langfuse com custo, latência, fallback.
- Fallback by default: nenhum agente fica preso a 1 provider — chain Anthropic → Gemini → GPT-4o. Ver ADR-002.
- Aprovação humana em mudanças sensíveis: doc-auditor sugere, humano aprova. Sem auto-merge.