vLLM
vLLM może udostępniać modele open source (oraz niektóre niestandardowe) przez API HTTP zgodne z OpenAI. OpenClaw łączy się z vLLM przy użyciu APIopenai-completions.
OpenClaw może także automatycznie wykrywać dostępne modele z vLLM, gdy jawnie to włączysz przez VLLM_API_KEY (dowolna wartość działa, jeśli Twój serwer nie wymusza auth) i nie zdefiniujesz jawnego wpisu models.providers.vllm.
| Właściwość | Wartość |
|---|---|
| ID dostawcy | vllm |
| API | openai-completions (zgodne z OpenAI) |
| Auth | zmienna środowiskowa VLLM_API_KEY |
| Domyślny bazowy URL | http://127.0.0.1:8000/v1 |
Pierwsze kroki
Uruchom vLLM z serwerem zgodnym z OpenAI
Twój bazowy URL powinien udostępniać endpointy
/v1 (np. /v1/models, /v1/chat/completions). vLLM często działa pod adresem:Wykrywanie modeli (niejawny dostawca)
GdyVLLM_API_KEY jest ustawione (albo istnieje profil auth) i nie zdefiniujesz models.providers.vllm, OpenClaw wykonuje zapytanie:
Jeśli jawnie ustawisz
models.providers.vllm, automatyczne wykrywanie zostanie pominięte i musisz ręcznie zdefiniować modele.Jawna konfiguracja (modele ręczne)
Użyj jawnej konfiguracji, gdy:- vLLM działa na innym hoście lub porcie
- Chcesz przypiąć wartości
contextWindowlubmaxTokens - Twój serwer wymaga prawdziwego klucza API (albo chcesz kontrolować nagłówki)
Uwagi zaawansowane
Zachowanie w stylu proxy
Zachowanie w stylu proxy
vLLM jest traktowany jako backend
/v1 zgodny z OpenAI w stylu proxy, a nie natywny
endpoint OpenAI. Oznacza to, że:| Zachowanie | Stosowane? |
|---|---|
| Natywne kształtowanie żądań OpenAI | Nie |
service_tier | Nie jest wysyłane |
store w Responses | Nie jest wysyłane |
| Wskazówki prompt-cache | Nie są wysyłane |
| Kształtowanie payloadów zgodności reasoning OpenAI | Nie jest stosowane |
| Ukryte nagłówki atrybucji OpenClaw | Nie są wstrzykiwane przy niestandardowych bazowych URL-ach |
Niestandardowy bazowy URL
Niestandardowy bazowy URL
Jeśli Twój serwer vLLM działa na niestandardowym hoście lub porcie, ustaw
baseUrl w jawnej konfiguracji dostawcy:Rozwiązywanie problemów
Nie można połączyć się z serwerem
Nie można połączyć się z serwerem
Sprawdź, czy serwer vLLM działa i jest dostępny:Jeśli widzisz błąd połączenia, sprawdź host, port oraz czy vLLM uruchomiono w trybie serwera zgodnego z OpenAI.
Błędy auth przy żądaniach
Błędy auth przy żądaniach
Jeśli żądania kończą się błędami auth, ustaw prawdziwe
VLLM_API_KEY, które odpowiada konfiguracji serwera, albo skonfiguruj dostawcę jawnie pod models.providers.vllm.Nie wykryto modeli
Nie wykryto modeli
Automatyczne wykrywanie wymaga, aby
VLLM_API_KEY było ustawione oraz żeby nie istniał jawny wpis konfiguracji models.providers.vllm. Jeśli dostawcę zdefiniowano ręcznie, OpenClaw pomija wykrywanie i używa tylko zadeklarowanych modeli.Powiązane
Wybór modelu
Wybór dostawców, odwołań do modeli i zachowania failover.
OpenAI
Natywny dostawca OpenAI i zachowanie tras zgodnych z OpenAI.
OAuth i auth
Szczegóły auth i zasady ponownego użycia poświadczeń.
Rozwiązywanie problemów
Typowe problemy i sposoby ich rozwiązania.