inferrs
inferrs kann lokale Modelle hinter einer OpenAI-kompatiblen/v1-API bereitstellen. OpenClaw funktioniert mit inferrs über den generischen
Pfad openai-completions.
inferrs sollte derzeit am besten als benutzerdefiniertes self-hosted
OpenAI-kompatibles Backend behandelt werden, nicht als dediziertes OpenClaw-Provider-Plugin.
Schnellstart
inferrsmit einem Modell starten.
- Prüfen, ob der Server erreichbar ist.
- Einen expliziten OpenClaw-Provider-Eintrag hinzufügen und das Standardmodell darauf verweisen lassen.
Vollständiges Konfigurationsbeispiel
Dieses Beispiel verwendet Gemma 4 auf einem lokaleninferrs-Server.
Warum requiresStringContent wichtig ist
Einige Chat-Completions-Routen von inferrs akzeptieren nur String-
messages[].content und keine strukturierten Content-Part-Arrays.
Wenn OpenClaw-Läufe mit einem Fehler wie diesem fehlschlagen:
Vorbehalt zu Gemma und Tool-Schema
Einige aktuelle Kombinationen ausinferrs + Gemma akzeptieren kleine direkte
/v1/chat/completions-Anfragen, schlagen aber bei vollständigen OpenClaw-Agent-Runtime-
Turns weiterhin fehl.
Wenn das passiert, versuche zuerst Folgendes:
inferrs
weiterhin abstürzen, liegt das verbleibende Problem normalerweise eher am Verhalten des Upstream-
Modells/Servers als an der Transportschicht von OpenClaw.
Manueller Smoke-Test
Nach der Konfiguration beide Ebenen testen:Fehlerbehebung
curl /v1/modelsschlägt fehl:inferrsläuft nicht, ist nicht erreichbar oder nicht an den erwarteten Host/Port gebunden.messages[].content ... expected a string: setzecompat.requiresStringContent: true.- Direkte kleine
/v1/chat/completions-Aufrufe funktionieren, aberopenclaw infer model runschlägt fehl: versuchecompat.supportsTools: false. - OpenClaw bekommt keine Schemafehler mehr, aber
inferrsstürzt bei größeren Agent-Turns weiterhin ab: behandle dies als Einschränkung von Upstream-inferrsoder des Modells und reduziere den Prompt-Druck oder wechsle Backend/Modell lokal.
Proxy-ähnliches Verhalten
inferrs wird als proxyähnliches OpenAI-kompatibles /v1-Backend behandelt, nicht als
nativer OpenAI-Endpunkt.
- natives request shaping nur für OpenAI gilt hier nicht
- kein
service_tier, kein Responses-store, keine Prompt-Cache-Hinweise und kein OpenAI-Reasoning-Compat-Payload-Shaping - versteckte OpenClaw-Attribution-Header (
originator,version,User-Agent) werden bei benutzerdefinierteninferrs-Base-URLs nicht injiziert