inferrs kan lokale modellen aanbieden achter een OpenAI-compatibeleDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
/v1-API. OpenClaw werkt met inferrs via het generieke
openai-completions-pad.
inferrs kan momenteel het best worden behandeld als een aangepaste zelfgehoste OpenAI-compatibele
backend, niet als een speciale OpenClaw-provider-Plugin.
Aan de slag
Volledig configuratievoorbeeld
Dit voorbeeld gebruikt Gemma 4 op een lokaleinferrs-server.
Geavanceerde configuratie
Waarom requiresStringContent belangrijk is
Waarom requiresStringContent belangrijk is
Sommige OpenClaw vlakt pure tekstinhoudsonderdelen af tot gewone tekenreeksen voordat
het verzoek wordt verzonden.
inferrs Chat Completions-routes accepteren alleen tekenreekswaarden voor
messages[].content, geen gestructureerde arrays met inhoudsonderdelen.Kanttekening bij Gemma en toolschema
Kanttekening bij Gemma en toolschema
Sommige huidige combinaties van Dat schakelt het toolschema-oppervlak van OpenClaw voor het model uit en kan de promptdruk
op striktere lokale backends verminderen.Als zeer kleine directe verzoeken nog steeds werken maar normale OpenClaw-agentbeurten blijven
crashen binnen
inferrs + Gemma accepteren kleine directe
/v1/chat/completions-verzoeken, maar mislukken nog steeds bij volledige OpenClaw-agent-runtime
beurten.Als dat gebeurt, probeer dan eerst dit:inferrs, ligt het resterende probleem meestal bij upstream model-/servergedrag
in plaats van bij de transportlaag van OpenClaw.Handmatige smoke-test
Handmatige smoke-test
Test na configuratie beide lagen:Als de eerste opdracht werkt maar de tweede mislukt, controleer dan de sectie voor probleemoplossing hieronder.
Proxy-achtig gedrag
Proxy-achtig gedrag
inferrs wordt behandeld als een proxy-achtige OpenAI-compatibele /v1-backend, niet als een
native OpenAI-eindpunt.- Native alleen-OpenAI-verzoekvorming is hier niet van toepassing
- Geen
service_tier, geen Responsesstore, geen prompt-cache-hints en geen OpenAI reasoning-compat-payloadvorming - Verborgen OpenClaw-attributieheaders (
originator,version,User-Agent) worden niet geïnjecteerd op aangepasteinferrs-basis-URL’s
Probleemoplossing
curl /v1/models mislukt
curl /v1/models mislukt
inferrs draait niet, is niet bereikbaar of is niet gebonden aan de verwachte
host/poort. Zorg ervoor dat de server is gestart en luistert op het adres dat je
hebt geconfigureerd.messages[].content verwacht een tekenreeks
messages[].content verwacht een tekenreeks
Stel
compat.requiresStringContent: true in de modelvermelding in. Zie de
sectie requiresStringContent hierboven voor details.Directe /v1/chat/completions-aanroepen slagen, maar openclaw infer model run mislukt
Directe /v1/chat/completions-aanroepen slagen, maar openclaw infer model run mislukt
Probeer
compat.supportsTools: false in te stellen om het toolschema-oppervlak uit te schakelen.
Zie de kanttekening bij het Gemma-toolschema hierboven.inferrs crasht nog steeds bij grotere agentbeurten
inferrs crasht nog steeds bij grotere agentbeurten
Als OpenClaw geen schemafouten meer krijgt maar
inferrs nog steeds crasht bij grotere
agentbeurten, behandel dit dan als een upstream beperking van inferrs of het model. Verminder
de promptdruk of schakel over naar een andere lokale backend of een ander model.Gerelateerd
Lokale modellen
OpenClaw uitvoeren tegen lokale modelservers.
Gateway-probleemoplossing
Lokale OpenAI-compatibele backends debuggen die probes doorstaan maar mislukken bij agent-runs.
Modelselectie
Overzicht van alle providers, modelverwijzingen en failovergedrag.