Backends de CLI (tiempo de ejecución alternativo)
OpenClaw puede ejecutar CLI de IA locales como una alternativa solo de texto cuando los proveedores de API no están disponibles, tienen límites de tasa o se comportan mal temporalmente. Esto es intencionalmente conservador:- Las herramientas de OpenClaw no se inyectan directamente, pero los backends con
bundleMcp: truepueden recibir herramientas del gateway mediante un puente MCP de local loopback. - Streaming JSONL para las CLI que lo admiten.
- Las sesiones son compatibles (para que los turnos de seguimiento mantengan la coherencia).
- Las imágenes pueden pasarse si la CLI acepta rutas de imágenes.
Inicio rápido para principiantes
Puede usar Codex CLI sin ninguna configuración (el Plugin de OpenAI incluido registra un backend predeterminado):agents.defaults.cliBackends.
Uso como alternativa
Agregue un backend de CLI a su lista de alternativas para que solo se ejecute cuando fallen los modelos primarios:- Si usa
agents.defaults.models(lista de permitidos), también debe incluir allí los modelos de su backend de CLI. - Si el proveedor primario falla (autenticación, límites de tasa, tiempos de espera), OpenClaw probará el backend de CLI a continuación.
Resumen de configuración
Todos los backends de CLI se encuentran en:codex-cli, my-cli).
El id del proveedor se convierte en el lado izquierdo de su referencia de modelo:
Ejemplo de configuración
Cómo funciona
- Selecciona un backend según el prefijo del proveedor (
codex-cli/...). - Construye un prompt del sistema usando el mismo prompt de OpenClaw + contexto del espacio de trabajo.
- Ejecuta la CLI con un id de sesión (si es compatible) para que el historial se mantenga coherente.
- Analiza la salida (JSON o texto sin formato) y devuelve el texto final.
- Persiste los id de sesión por backend, para que los seguimientos reutilicen la misma sesión de CLI.
El backend incluido
claude-cli de Anthropic vuelve a ser compatible. El personal de Anthropic
nos dijo que el uso de Claude CLI al estilo OpenClaw vuelve a estar permitido, por lo que OpenClaw trata
el uso de claude -p como autorizado para esta integración, a menos que Anthropic publique
una nueva política.codex-cli de OpenAI pasa el prompt del sistema de OpenClaw a través de
la anulación de configuración model_instructions_file de Codex (-c model_instructions_file="..."). Codex no expone una marca de estilo Claude
--append-system-prompt, por lo que OpenClaw escribe el prompt ensamblado en un
archivo temporal para cada nueva sesión de Codex CLI.
El backend incluido claude-cli de Anthropic recibe la instantánea de Skills de OpenClaw
de dos formas: el catálogo compacto de Skills de OpenClaw en el prompt del sistema agregado, y
un Plugin temporal de Claude Code pasado con --plugin-dir. El Plugin contiene
solo las Skills aptas para ese agente/sesión, por lo que el resolvedor nativo de Skills de Claude Code
ve el mismo conjunto filtrado que OpenClaw anunciaría de otro modo en
el prompt. Las anulaciones de variables de entorno/API key de Skills siguen siendo aplicadas por OpenClaw al
entorno del proceso hijo para la ejecución.
Sesiones
- Si la CLI admite sesiones, configure
sessionArg(por ejemplo,--session-id) osessionArgs(marcador{sessionId}) cuando el ID deba insertarse en varias marcas. - Si la CLI usa un subcomando de reanudación con marcas diferentes, configure
resumeArgs(reemplazaargsal reanudar) y, opcionalmente,resumeOutput(para reanudaciones que no sean JSON). sessionMode:always: siempre envía un id de sesión (un UUID nuevo si no hay ninguno almacenado).existing: solo envía un id de sesión si ya había uno almacenado.none: nunca envía un id de sesión.
serialize: truemantiene ordenadas las ejecuciones en el mismo carril.- La mayoría de las CLI serializan en un carril de proveedor.
- OpenClaw descarta la reutilización de sesiones de CLI almacenadas cuando cambia el estado de autenticación del backend, incluyendo volver a iniciar sesión, rotación de tokens o un cambio en la credencial del perfil de autenticación.
Imágenes (paso directo)
Si su CLI acepta rutas de imágenes, configureimageArg:
imageArg está configurado, esas
rutas se pasan como argumentos de CLI. Si falta imageArg, OpenClaw agrega las
rutas de archivo al prompt (inyección de ruta), lo que es suficiente para las CLI que cargan
automáticamente archivos locales a partir de rutas simples.
Entradas / salidas
output: "json"(predeterminado) intenta analizar JSON y extraer texto + id de sesión.- Para la salida JSON de Gemini CLI, OpenClaw lee el texto de la respuesta desde
responsey el uso desdestatscuando faltausageo está vacío. output: "jsonl"analiza flujos JSONL (por ejemplo, Codex CLI--json) y extrae el mensaje final del agente más los identificadores de sesión cuando están presentes.output: "text"trata stdout como la respuesta final.
input: "arg"(predeterminado) pasa el prompt como el último argumento de CLI.input: "stdin"envía el prompt mediante stdin.- Si el prompt es muy largo y
maxPromptArgCharsestá configurado, se usa stdin.
Valores predeterminados (propiedad del Plugin)
El Plugin incluido de OpenAI también registra un valor predeterminado paracodex-cli:
command: "codex"args: ["exec","--json","--color","never","--sandbox","workspace-write","--skip-git-repo-check"]resumeArgs: ["exec","resume","{sessionId}","-c","sandbox_mode=\"workspace-write\"","--skip-git-repo-check"]output: "jsonl"resumeOutput: "text"modelArg: "--model"imageArg: "--image"sessionMode: "existing"
google-gemini-cli:
command: "gemini"args: ["--output-format", "json", "--prompt", "{prompt}"]resumeArgs: ["--resume", "{sessionId}", "--output-format", "json", "--prompt", "{prompt}"]imageArg: "@"imagePathScope: "workspace"modelArg: "--model"sessionMode: "existing"sessionIdFields: ["session_id", "sessionId"]
gemini en PATH (brew install gemini-cli o
npm install -g @google/gemini-cli).
Notas sobre JSON de Gemini CLI:
- El texto de respuesta se lee del campo JSON
response. - El uso recurre a
statscuandousageno está presente o está vacío. stats.cachedse normaliza en OpenClaw comocacheRead.- Si falta
stats.input, OpenClaw deriva los tokens de entrada a partir destats.input_tokens - stats.cached.
command).
Valores predeterminados propiedad del Plugin
Los valores predeterminados del backend de CLI ahora forman parte de la superficie del Plugin:- Los Plugins los registran con
api.registerCliBackend(...). - El
iddel backend se convierte en el prefijo del proveedor en las referencias de modelo. - La configuración del usuario en
agents.defaults.cliBackends.<id>sigue anulando el valor predeterminado del Plugin. - La limpieza de configuración específica del backend sigue siendo propiedad del Plugin mediante el hook opcional
normalizeConfig.
input reescribe el prompt del sistema y el prompt del usuario enviados a la CLI. output
reescribe los deltas en streaming del asistente y el texto final analizado antes de que OpenClaw maneje
sus propios marcadores de control y la entrega por canal.
Para CLI que emiten JSONL compatible con stream-json de Claude Code, configure
jsonlDialect: "claude-stream-json" en la configuración de ese backend.
Superposiciones de bundle MCP
Los backends de CLI no reciben llamadas a herramientas de OpenClaw directamente, pero un backend puede optar por una superposición de configuración MCP generada conbundleMcp: true.
Comportamiento incluido actual:
claude-cli: archivo de configuración MCP estricto generadocodex-cli: anulaciones de configuración en línea paramcp_serversgoogle-gemini-cli: archivo de configuración del sistema Gemini generado
- inicia un servidor HTTP MCP de local loopback que expone herramientas del gateway al proceso de la CLI
- autentica el puente con un token por sesión (
OPENCLAW_MCP_TOKEN) - limita el acceso a herramientas a la sesión, cuenta y contexto de canal actuales
- carga los servidores bundle-MCP habilitados para el espacio de trabajo actual
- los fusiona con cualquier configuración MCP existente o forma de ajustes del backend
- reescribe la configuración de inicio usando el modo de integración propiedad del backend desde la extensión propietaria
Limitaciones
- No hay llamadas directas a herramientas de OpenClaw. OpenClaw no inyecta llamadas a herramientas en
el protocolo del backend de CLI. Los backends solo ven herramientas del gateway cuando optan por
bundleMcp: true. - El streaming es específico del backend. Algunos backends transmiten JSONL; otros almacenan en búfer hasta la salida.
- Las salidas estructuradas dependen del formato JSON de la CLI.
- Las sesiones de Codex CLI se reanudan mediante salida de texto (sin JSONL), que es menos
estructurada que la ejecución inicial con
--json. Las sesiones de OpenClaw siguen funcionando normalmente.
Solución de problemas
- CLI no encontrada: configure
commandcon una ruta completa. - Nombre de modelo incorrecto: use
modelAliasespara mapearprovider/model→ modelo de CLI. - Sin continuidad de sesión: asegúrese de que
sessionArgesté configurado y quesessionModeno seanone(actualmente Codex CLI no puede reanudarse con salida JSON). - Imágenes ignoradas: configure
imageArg(y verifique que la CLI admita rutas de archivo).