tú,
cien
veces.

PaellaDoc ADO es el orquestador que permite que una sola persona dirija varios proyectos con 10–100 agentes trabajando en paralelo — sin guerras de merge, sin contaminación de contexto. Cada chat, cada decisión y cada artefacto se quedan en tu máquina. Trae el modelo que quieras — Claude, Codex, Gemini o un Llama local desde una cabaña en el bosque.

FLOTA / EN VIVO paelladoc ado · en movimiento
cada historia = 1 agente · 1 worktree · 1 contexto aislado.
guerras de merge: 0. contaminación de contexto: 0.

Tres cosas, en este orden.

/01 · Bandwidth

orquesta a escala

Pon a trabajar 10–100 agentes en paralelo en distintos proyectos. Cada uno en su propio git worktree, con su contexto aislado y su propio cerebro. No se pisan — y tú sigues siendo una sola persona.

/02 · Soberanía

el conocimiento es tuyo

Cada chat, cada decisión y cada artefacto que produzcan tus agentes vive en SQLite plano, en tu máquina. Tu expertise de dominio, codificada. No datos de entrenamiento para otro.

/03 · Portabilidad

cualquier modelo, cuando quieras

Hoy Claude. Mañana Codex. La semana que viene un Llama de 70B en tu portátil, en una cabaña sin cobertura. El orquestador es la constante — el modelo es una pieza intercambiable en caliente.

un orquestador.
n proyectos. n×k cerebros.

# tu flota(1 humano)
├── orquestador · paelladoc-ado · local
│   ├── proyecto: acme/portfolio-v3
│   │   ├── worktree-01 → claude · story-014 · ✓
│   │   ├── worktree-02 → codex  · story-015 · ↻
│   │   └── …16 más
│   ├── proyecto: paelladoc/ado-core
│   │   ├── worktree-01 → codex  · refactor · ✓
│   │   └── …23 más
│   └── proyecto: cabaña/local-llm-bench
│       └── worktree-01 → llama-local · ✓ (offline)
└── context_store · sqlite · ~/.paelladoc/
    ├── chats.db   2,4 GB
    ├── decisions.db 180 MB
    └── artifacts/   11 GB
AISLADO

Cada agente corre en su propio git worktree. Su rama, su vista del filesystem, su conversación. La limpieza es automática. Las guerras de merge dejan de existir.

PARALELO

Tú dejas de ser el cuello de botella. Encolas 50 historias antes de dormir; te despiertas con 50 worktrees terminados, replayed y listos para revisar a tu ritmo.

LOCAL

El orquestador está en tu máquina. El contexto está en tu máquina. Los agentes salen a hablar con el cerebro que elijas — o con un modelo local que tú mismo te alojas.

el contexto
es el activo.
quédatelo.

El valor real de trabajar meses con IA no es el código que genera. Es el grafo de conocimiento que vas construyendo por el camino: tus decisiones, tus casos límite, cómo funciona de verdad tu dominio.

La mayoría de herramientas agénticas convierten eso, sin que te enteres, en datos de entrenamiento de otro. O lo encierran dentro de un único modelo frontera — cambias y lo pierdes todo.

PaellaDoc ADO le da la vuelta. Tu contexto vive en SQLite plano, en tu disco, en formatos que puedes leer. Apúntale el modelo que quieras — Claude hoy, Codex mañana, un Llama local desde una cabaña la semana que viene. El cerebro cambia; tu conocimiento, no.

• 100% local • 0 telemetría • SQLite + WAL • trae tu propio modelo

envía a producción
donde te dejen.

Clientes air-gapped. Mandatos on-prem. Sectores regulados que prohíben las APIs frontera. O simplemente una cabaña off-grid. PaellaDoc ADO mantiene intacta la metodología de producto — PRD, épicas, historias, criterios de aceptación, validación con golden gate — y enruta cada historia al cerebro que tu contexto te permita. Misma jerarquía. Mismo rastro de evidencia. Mismo listón para enviar.

  • Local: Llama-cpp, Ollama, vLLM, MLX. Hospedados: cualquier endpoint compatible con OpenAI
  • Política por proyecto: bloquea a sólo-local, permite frontera o mezcla por AC
  • Routing consciente del coste: modelos baratos para criterios triviales, frontera sólo cuando se gana
  • Auditoría completa en SQLite plano — specs, decisiones, trazas, artefactos
benchmark · frontera en un escritorio
DeepSeek V4 Flash 158B-A13B · MoE · 1M de contexto
31–56 tok/s en MacBook Pro M5 Max · 128 GB

Frontera MoE en day-0, corriendo en local. El orquestador la pilota como a cualquier otro backend — mismo PRD, mismo golden gate, mismo rastro de auditoría.

$ paelladoc run --backend=mlx:deepseek-v4-flash
→ contexto cargado desde ~/.paelladoc/store.db
→ retomando story-018 · refactor del módulo auth
→ MacBook Pro M5 Max · 128 GB · 47 tok/s
→ agente listo · frontera offline ✓

diseñado para el operador en solitario.

01

El fundador con cartera de productos

Seis side-products. Una persona. El orquestador lleva cada uno como su propia flota, y el contexto nunca se mezcla entre ellos.

02

El principal de plataforma

100 historias en una migración legacy. Las encolas, asignas cerebros y ves el árbol ponerse verde. El PM ve qué decidió cada agente, no sólo lo que envió.

03

El hacker off-grid

Es dueño de los pesos del modelo. Es dueño del contexto. Programa desde una cabaña. PaellaDoc sólo enruta el trabajo.

04

La consultora con compliance

El código del cliente no sale del portátil. Las APIs frontera son opt-in por proyecto. Auditoría en SQLite plano.

05

El equipo curioso con los modelos

La misma tarea, tres cerebros, diff lado a lado. Te quedas con el mejor output. Dejas de adivinar qué modelo es bueno en qué.

@jlcases
fundador en solitario · CPTO en Rankia
“Soy una persona. Llevo varios productos. No quiero ser el manager de los agentes — quiero ser el arquitecto y dejar que la flota corra.

Tampoco quiero que mi modelo mental entero — cada conversación, cada decisión — viva dentro de la nube de un proveedor en la que desaparece el día que cambio de herramienta.

PaellaDoc nació para el nuevo paradigma — spec-driven y guiado por el contexto, por encima del propio código. El arquitecto escribe la spec; el sistema envía el código. de productividad — tesis. 277★ en abril de 2025, cuando todavía nadie hablaba de esto.

Ahora vuelvo. PaellaDoc ADO — persiguiendo el 100× para una sola persona.”
[007] · descargar

dirige una
flota.

gratis · 100% local · sin cuenta · macOS apple silicon