Lab local
IA aplicada con Ollama (desactivado)
Esta vista reproduce en el navegador lo que hace el script docs/oss-lab/scripts/run-ollama-role.sh: carga el prompt del rol desde docs/agents/<rol>.md, añade un extracto del README y llama a Ollama con streaming SSE para ver tokens y trazas en vivo.
El servidor Next solo necesita un interruptor explícito por seguridad. Añade OLLAMA_LAB_UI_ENABLED=true, guarda apps/web/.env.local (si no existe: cd apps/web && cp env.local.example .env.local) y reinicia npm run dev (desde apps/web).