Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
models.providers.<id>.localService ermöglicht OpenClaw, bei Bedarf einen Provider-eigenen lokalen
Modellserver zu starten. Es handelt sich um eine Konfiguration auf Provider-Ebene: Wenn das ausgewählte Modell
zu diesem Provider gehört, prüft OpenClaw den Dienst, startet den Prozess, falls der
Endpoint nicht erreichbar ist, wartet auf die Bereitschaft und sendet dann die Modellanfrage.
Verwenden Sie dies für lokale Server, deren dauerhafter Betrieb den ganzen Tag über teuer ist, oder für
manuelle Setups, bei denen die Modellauswahl ausreichen soll, um das Backend zu starten.
Funktionsweise
- Eine Modellanfrage wird einem konfigurierten Provider zugeordnet.
- Wenn dieser Provider
localServicehat, prüft OpenClawhealthUrl. - Wenn die Prüfung erfolgreich ist, verwendet OpenClaw den vorhandenen Server.
- Wenn die Prüfung fehlschlägt, startet OpenClaw
commandmitargs. - OpenClaw fragt die Bereitschaft ab, bis
readyTimeoutMsabläuft. - Die Modellanfrage wird über den normalen Provider-Transport gesendet.
- Wenn OpenClaw den Prozess gestartet hat und
idleStopMspositiv ist, wird der Prozess beendet, nachdem die letzte laufende Anfrage für diesen Zeitraum inaktiv war.
Konfigurationsstruktur
Felder
command: absoluter Pfad zur ausführbaren Datei. Shell-Suche wird nicht verwendet.args: Prozessargumente. Es werden keine Shell-Erweiterung, Pipes, Globbing- oder Quoting- Regeln angewendet.cwd: optionales Arbeitsverzeichnis für den Prozess.env: optionale Umgebungsvariablen, die über die Umgebung des OpenClaw-Prozesses gelegt werden.healthUrl: Bereitschafts-URL. Wenn weggelassen, hängt OpenClaw/modelsanbaseUrlan, sodass aushttp://127.0.0.1:8000/v1http://127.0.0.1:8000/v1/modelswird.readyTimeoutMs: Frist für die Startbereitschaft. Standard:120000.idleStopMs: Verzögerung für das Herunterfahren bei Inaktivität für von OpenClaw gestartete Prozesse.0oder Weglassen hält den Prozess am Leben, bis OpenClaw beendet wird.
Inferrs-Beispiel
Inferrs ist ein benutzerdefiniertes OpenAI-kompatibles/v1-Backend, daher funktioniert dieselbe lokale Dienst-
API mit dem inferrs-Provider-Eintrag.
command durch das Ergebnis von which inferrs auf der Maschine, auf der
OpenClaw ausgeführt wird.
ds4-Beispiel
Betriebshinweise
- Ein OpenClaw-Prozess verwaltet den von ihm gestarteten Kindprozess. Ein anderer OpenClaw-Prozess, der dieselbe Health-URL bereits aktiv sieht, verwendet sie wieder, ohne sie zu übernehmen.
- Der Start wird pro Provider-Befehl und Argumentgruppe serialisiert, sodass gleichzeitige Anfragen keine doppelten Server für dieselbe Konfiguration erzeugen.
- Aktive Streaming-Antworten halten eine Lease; das Herunterfahren bei Inaktivität wartet, bis die Verarbeitung des Antwort-Bodys abgeschlossen ist.
- Verwenden Sie
timeoutSecondsbei langsamen lokalen Providern, damit Kaltstarts und lange Generierungen nicht das Standard-Timeout für Modellanfragen erreichen. - Verwenden Sie eine explizite
healthUrl, wenn Ihr Server die Bereitschaft an einer anderen Stelle als/v1/modelsbereitstellt.
Verwandte Themen
Lokale Modelle
Einrichtung lokaler Modelle, Provider-Auswahl und Sicherheitsleitfaden.
Inferrs
Führen Sie OpenClaw über den inferrs OpenAI-kompatiblen lokalen Server aus.