inferrs
inferrs pode servir modelos locais por trás de uma API/v1 compatível com OpenAI. O OpenClaw funciona com inferrs por meio do caminho genérico
openai-completions.
Atualmente, o inferrs é melhor tratado como um backend personalizado self-hosted compatível com OpenAI,
não como um plugin de provider dedicado do OpenClaw.
Início rápido
- Inicie o
inferrscom um modelo.
- Verifique se o servidor está acessível.
- Adicione uma entrada explícita de provider no OpenClaw e aponte seu modelo padrão para ela.
Exemplo completo de configuração
Este exemplo usa Gemma 4 em um servidor localinferrs.
Por que requiresStringContent importa
Algumas rotas Chat Completions do inferrs aceitam apenas
messages[].content em string, não arrays estruturados de partes de conteúdo.
Se as execuções do OpenClaw falharem com um erro como:
Observação sobre Gemma e schema de ferramentas
Algumas combinações atuais deinferrs + Gemma aceitam pequenas solicitações diretas para
/v1/chat/completions, mas ainda falham em turnos completos do runtime de agente do OpenClaw.
Se isso acontecer, tente primeiro isto:
inferrs, o problema restante normalmente é comportamento upstream do modelo/servidor,
e não da camada de transporte do OpenClaw.
Smoke test manual
Depois de configurar, teste ambas as camadas:Solução de problemas
curl /v1/modelsfalha: oinferrsnão está em execução, não está acessível ou não está vinculado ao host/porta esperados.messages[].content ... expected a string: definacompat.requiresStringContent: true.- Chamadas diretas pequenas para
/v1/chat/completionspassam, masopenclaw infer model runfalha: tentecompat.supportsTools: false. - O OpenClaw não recebe mais erros de schema, mas o
inferrsainda falha em turnos maiores de agente: trate isso como uma limitação upstream doinferrsou do modelo e reduza a pressão do prompt ou troque de backend/modelo local.
Comportamento no estilo proxy
Oinferrs é tratado como um backend /v1 compatível com OpenAI no estilo proxy, não como um
endpoint OpenAI nativo.
- a modelagem de solicitações exclusiva do OpenAI nativo não se aplica aqui
- sem
service_tier, semstorede Responses, sem dicas de prompt-cache e sem modelagem de payload de compatibilidade de reasoning do OpenAI - cabeçalhos ocultos de atribuição do OpenClaw (
originator,version,User-Agent) não são injetados em base URLs personalizadas doinferrs