Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
models.providers.<id>.localService permite que OpenClaw inicie bajo demanda un servidor de modelos local propiedad del proveedor. Es configuración a nivel de proveedor: cuando el modelo seleccionado pertenece a ese proveedor, OpenClaw sondea el servicio, inicia el proceso si el endpoint está inactivo, espera a que esté listo y luego envía la solicitud del modelo.
Úsalo para servidores locales que sean costosos de mantener ejecutándose todo el día, o para configuraciones manuales donde la selección del modelo debería bastar para levantar el backend.
Cómo funciona
- Una solicitud de modelo se resuelve en un proveedor configurado.
- Si ese proveedor tiene
localService, OpenClaw sondeahealthUrl. - Si el sondeo se realiza correctamente, OpenClaw usa el servidor existente.
- Si el sondeo falla, OpenClaw inicia
commandconargs. - OpenClaw sondea la disponibilidad hasta que vence
readyTimeoutMs. - La solicitud del modelo se envía a través del transporte normal del proveedor.
- Si OpenClaw inició el proceso y
idleStopMses positivo, el proceso se detiene después de que la última solicitud en curso haya estado inactiva durante ese tiempo.
Estructura de configuración
Campos
command: ruta absoluta del ejecutable. No se usa la búsqueda del shell.args: argumentos del proceso. No se aplican expansión del shell, tuberías, globbing ni reglas de entrecomillado.cwd: directorio de trabajo opcional para el proceso.env: variables de entorno opcionales combinadas sobre el entorno del proceso de OpenClaw.healthUrl: URL de disponibilidad. Si se omite, OpenClaw añade/modelsabaseUrl, por lo quehttp://127.0.0.1:8000/v1pasa a serhttp://127.0.0.1:8000/v1/models.readyTimeoutMs: plazo límite de disponibilidad al iniciar. Predeterminado:120000.idleStopMs: retardo de apagado por inactividad para procesos iniciados por OpenClaw.0u omitido mantiene el proceso activo hasta que OpenClaw salga.
Ejemplo de Inferrs
Inferrs es un backend/v1 personalizado compatible con OpenAI, por lo que la misma API de servicio local funciona con la entrada del proveedor inferrs.
command por el resultado de which inferrs en la máquina que ejecuta OpenClaw.
Ejemplo de ds4
Notas operativas
- Un proceso de OpenClaw administra el hijo que inició. Otro proceso de OpenClaw que vea que la misma URL de estado ya está activa la reutilizará sin adoptarla.
- El inicio se serializa por comando de proveedor y conjunto de argumentos, por lo que las solicitudes concurrentes no generan servidores duplicados para la misma configuración.
- Las respuestas de streaming activas mantienen una concesión; el apagado por inactividad espera hasta que se complete el manejo del cuerpo de la respuesta.
- Usa
timeoutSecondsen proveedores locales lentos para que los arranques en frío y las generaciones largas no alcancen el tiempo de espera predeterminado de solicitud de modelo. - Usa un
healthUrlexplícito si tu servidor expone la disponibilidad en un lugar distinto de/v1/models.
Relacionado
Local models
Configuración de modelos locales, opciones de proveedor y guía de seguridad.
Inferrs
Ejecuta OpenClaw a través del servidor local compatible con OpenAI de inferrs.