Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
models.providers.<id>.localService pozwala OpenClaw uruchamiać na żądanie lokalny
serwer modelu należący do dostawcy. Jest to konfiguracja na poziomie dostawcy:
gdy wybrany model należy do tego dostawcy, OpenClaw sprawdza usługę, uruchamia
proces, jeśli punkt końcowy jest niedostępny, czeka na gotowość, a następnie
wysyła żądanie do modelu.
Używaj tego dla lokalnych serwerów, których utrzymywanie przez cały dzień jest
kosztowne, albo dla ręcznych konfiguracji, w których sam wybór modelu powinien
wystarczyć do uruchomienia backendu.
Jak to działa
- Żądanie modelu jest rozwiązywane do skonfigurowanego dostawcy.
- Jeśli ten dostawca ma
localService, OpenClaw sprawdzahealthUrl. - Jeśli sprawdzenie się powiedzie, OpenClaw używa istniejącego serwera.
- Jeśli sprawdzenie się nie powiedzie, OpenClaw uruchamia
commandzargs. - OpenClaw odpytuje gotowość do momentu wygaśnięcia
readyTimeoutMs. - Żądanie modelu jest wysyłane przez standardowy transport dostawcy.
- Jeśli OpenClaw uruchomił proces, a
idleStopMsjest dodatnie, proces jest zatrzymywany po tym, jak ostatnie trwające żądanie pozostanie bezczynne przez tak długi czas.
Struktura konfiguracji
Pola
command: bezwzględna ścieżka do pliku wykonywalnego. Wyszukiwanie przez powłokę nie jest używane.args: argumenty procesu. Nie są stosowane rozwijanie powłoki, potoki, globowanie ani reguły cytowania.cwd: opcjonalny katalog roboczy procesu.env: opcjonalne zmienne środowiskowe scalane ze środowiskiem procesu OpenClaw.healthUrl: URL gotowości. Jeśli zostanie pominięty, OpenClaw dopisuje/modelsdobaseUrl, więchttp://127.0.0.1:8000/v1staje sięhttp://127.0.0.1:8000/v1/models.readyTimeoutMs: limit czasu oczekiwania na gotowość podczas uruchamiania. Domyślnie:120000.idleStopMs: opóźnienie wyłączenia po bezczynności dla procesów uruchomionych przez OpenClaw.0albo pominięcie utrzymuje proces przy życiu do czasu zakończenia OpenClaw.
Przykład Inferrs
Inferrs jest niestandardowym backendem/v1 zgodnym z OpenAI, więc to samo API
usługi lokalnej działa z wpisem dostawcy inferrs.
command wynikiem which inferrs na maszynie uruchamiającej
OpenClaw.
Przykład ds4
Uwagi operacyjne
- Jeden proces OpenClaw zarządza uruchomionym przez siebie procesem potomnym. Inny proces OpenClaw, który zobaczy, że ten sam URL sprawdzania kondycji już działa, użyje go ponownie bez przejmowania nad nim kontroli.
- Uruchamianie jest serializowane dla każdego zestawu polecenia i argumentów dostawcy, więc równoczesne żądania nie tworzą zduplikowanych serwerów dla tej samej konfiguracji.
- Aktywne odpowiedzi strumieniowe utrzymują dzierżawę; wyłączenie po bezczynności czeka do zakończenia obsługi treści odpowiedzi.
- Użyj
timeoutSecondsdla wolnych dostawców lokalnych, aby zimne starty i długie generowania nie trafiały w domyślny limit czasu żądania modelu. - Użyj jawnego
healthUrl, jeśli Twój serwer udostępnia gotowość w miejscu innym niż/v1/models.
Powiązane
Modele lokalne
Konfiguracja modelu lokalnego, wybór dostawcy i wskazówki dotyczące bezpieczeństwa.
Inferrs
Uruchamiaj OpenClaw przez lokalny serwer inferrs zgodny z OpenAI.