SGLang
SGLang może udostępniać modele open source przez interfejs HTTP zgodny z OpenAI. OpenClaw może łączyć się z SGLang przy użyciu APIopenai-completions.
OpenClaw może też automatycznie wykrywać dostępne modele z SGLang, gdy jawnie
to włączysz przez SGLANG_API_KEY (dowolna wartość działa, jeśli Twój serwer nie wymusza uwierzytelniania)
i nie zdefiniujesz jawnego wpisu models.providers.sglang.
Szybki start
- Uruchom SGLang z serwerem zgodnym z OpenAI.
baseUrl powinien udostępniać endpointy /v1 (na przykład /v1/models,
/v1/chat/completions). SGLang zwykle działa pod adresem:
http://127.0.0.1:30000/v1
- Włącz to jawnie (dowolna wartość działa, jeśli uwierzytelnianie nie jest skonfigurowane):
- Uruchom onboarding i wybierz
SGLangalbo ustaw model bezpośrednio:
Wykrywanie modeli (niejawny dostawca)
GdySGLANG_API_KEY jest ustawione (lub istnieje profil uwierzytelniania) i nie
zdefiniujesz models.providers.sglang, OpenClaw wykona zapytanie do:
GET http://127.0.0.1:30000/v1/models
models.providers.sglang, automatyczne wykrywanie zostanie pominięte
i musisz zdefiniować modele ręcznie.
Jawna konfiguracja (modele ręczne)
Użyj jawnej konfiguracji, gdy:- SGLang działa na innym hoście/porcie.
- Chcesz przypiąć wartości
contextWindow/maxTokens. - Twój serwer wymaga prawdziwego klucza API (albo chcesz kontrolować nagłówki).
Rozwiązywanie problemów
- Sprawdź, czy serwer jest osiągalny:
- Jeśli żądania kończą się błędami uwierzytelniania, ustaw prawdziwe
SGLANG_API_KEYzgodne z konfiguracją Twojego serwera albo skonfiguruj dostawcę jawnie wmodels.providers.sglang.
Zachowanie w stylu proxy
SGLang jest traktowany jako backend/v1 zgodny z OpenAI w stylu proxy, a nie
natywny endpoint OpenAI.
- nie stosuje się tutaj kształtowania żądań wyłącznie dla natywnego OpenAI
- brak
service_tier, brakstorez Responses, brak hintów cache promptu i brak kształtowania payloadu zgodności reasoning dla OpenAI - ukryte nagłówki atrybucji OpenClaw (
originator,version,User-Agent) nie są wstrzykiwane do niestandardowychbaseUrlSGLang