inferrs
inferrs puede servir modelos locales detrás de una API/v1 compatible con OpenAI. OpenClaw funciona con inferrs mediante la ruta genérica
openai-completions.
Actualmente, lo mejor es tratar inferrs como un backend personalizado autoalojado
compatible con OpenAI, no como un plugin de proveedor dedicado de OpenClaw.
Inicio rápido
- Inicia
inferrscon un modelo.
- Verifica que se pueda acceder al servidor.
- Añade una entrada explícita de proveedor de OpenClaw y apunta tu modelo predeterminado a ella.
Ejemplo completo de configuración
Este ejemplo usa Gemma 4 en un servidor local deinferrs.
Por qué importa requiresStringContent
Algunas rutas Chat Completions de inferrs aceptan solo
messages[].content de tipo cadena, no matrices estructuradas de partes de contenido.
Si las ejecuciones de OpenClaw fallan con un error como:
Advertencia sobre Gemma y el esquema de herramientas
Algunas combinaciones actuales deinferrs + Gemma aceptan solicitudes directas pequeñas a
/v1/chat/completions, pero aun así fallan en turnos completos del entorno de ejecución de agentes de OpenClaw.
Si eso ocurre, prueba primero esto:
inferrs, el problema restante suele estar en el comportamiento ascendente del modelo/servidor
y no en la capa de transporte de OpenClaw.
Prueba manual rápida
Una vez configurado, prueba ambas capas:Solución de problemas
curl /v1/modelsfalla:inferrsno está en ejecución, no es accesible o no está enlazado al host/puerto esperado.messages[].content ... expected a string: establececompat.requiresStringContent: true.- Las llamadas directas pequeñas a
/v1/chat/completionsfuncionan, peroopenclaw infer model runfalla: pruebacompat.supportsTools: false. - OpenClaw ya no recibe errores de esquema, pero
inferrssigue fallando en turnos de agentes más grandes: trátalo como una limitación ascendente deinferrso del modelo y reduce la presión del prompt o cambia de backend/modelo local.
Comportamiento de estilo proxy
inferrs se trata como un backend /v1 compatible con OpenAI de estilo proxy, no como un
endpoint nativo de OpenAI.
- aquí no se aplica el modelado de solicitudes exclusivo de OpenAI nativo
- no hay
service_tier, nistorede Responses, ni sugerencias de caché de prompts, ni modelado de payload de compatibilidad de razonamiento de OpenAI - los encabezados ocultos de atribución de OpenClaw (
originator,version,User-Agent) no se inyectan en URLs base personalizadas deinferrs