vLLM
vLLM może udostępniać modele open source (oraz niektóre modele niestandardowe) przez interfejs HTTP zgodny z OpenAI. OpenClaw może łączyć się z vLLM przy użyciu APIopenai-completions.
OpenClaw może także automatycznie wykrywać dostępne modele z vLLM, jeśli włączysz to przez VLLM_API_KEY (dowolna wartość działa, jeśli serwer nie wymusza uwierzytelniania) i nie zdefiniujesz jawnego wpisu models.providers.vllm.
Szybki start
- Uruchom vLLM z serwerem zgodnym z OpenAI.
/v1 (na przykład /v1/models, /v1/chat/completions). vLLM zwykle działa pod adresem:
http://127.0.0.1:8000/v1
- Włącz to jawnie (dowolna wartość działa, jeśli uwierzytelnianie nie jest skonfigurowane):
- Wybierz model (zastąp jednym z identyfikatorów modeli vLLM):
Wykrywanie modeli (niejawny dostawca)
GdyVLLM_API_KEY jest ustawione (lub istnieje profil uwierzytelniania) i nie definiujesz models.providers.vllm, OpenClaw wykona zapytanie:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm, automatyczne wykrywanie zostanie pominięte i musisz ręcznie zdefiniować modele.
Jawna konfiguracja (modele ręczne)
Użyj jawnej konfiguracji, gdy:- vLLM działa na innym hoście/porcie.
- Chcesz przypiąć wartości
contextWindow/maxTokens. - Twój serwer wymaga prawdziwego klucza API (albo chcesz kontrolować nagłówki).
Rozwiązywanie problemów
- Sprawdź, czy serwer jest osiągalny:
- Jeśli żądania kończą się błędami uwierzytelniania, ustaw prawdziwe
VLLM_API_KEY, zgodne z konfiguracją serwera, albo skonfiguruj dostawcę jawnie podmodels.providers.vllm.
Zachowanie w stylu proxy
vLLM jest traktowane jako backend/v1 zgodny z OpenAI w stylu proxy, a nie jako natywny
punkt końcowy OpenAI.
- natywne formatowanie żądań przeznaczone wyłącznie dla OpenAI nie ma tutaj zastosowania
- brak
service_tier, brak Responsesstore, brak wskazówek pamięci podręcznej promptów i brak formatowania ładunku zgodności rozumowania OpenAI - ukryte nagłówki atrybucji OpenClaw (
originator,version,User-Agent) nie są wstrzykiwane dla niestandardowych bazowych URL-i vLLM