vLLM
vLLM kann Open-Source-Modelle (und einige benutzerdefinierte Modelle) über eine OpenAI-kompatible HTTP-API bereitstellen. OpenClaw kann sich über die APIopenai-completions mit vLLM verbinden.
OpenClaw kann verfügbare Modelle aus vLLM außerdem automatisch erkennen, wenn du dich mit VLLM_API_KEY dafür entscheidest (jeder Wert funktioniert, wenn dein Server keine Authentifizierung erzwingt) und keinen expliziten Eintrag models.providers.vllm definierst.
Schnellstart
- Starte vLLM mit einem OpenAI-kompatiblen Server.
/v1-Endpunkte bereitstellen (z. B. /v1/models, /v1/chat/completions). vLLM läuft üblicherweise unter:
http://127.0.0.1:8000/v1
- Opt-in aktivieren (jeder Wert funktioniert, wenn keine Authentifizierung konfiguriert ist):
- Ein Modell auswählen (ersetze dies durch eine deiner vLLM-Modell-IDs):
Modell-Discovery (impliziter Provider)
WennVLLM_API_KEY gesetzt ist (oder ein Auth-Profil existiert) und du nicht models.providers.vllm definierst, fragt OpenClaw Folgendes ab:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm explizit setzt, wird die automatische Erkennung übersprungen und du musst Modelle manuell definieren.
Explizite Konfiguration (manuelle Modelle)
Verwende eine explizite Konfiguration, wenn:- vLLM auf einem anderen Host/Port läuft.
- Du Werte für
contextWindow/maxTokensfestlegen möchtest. - Dein Server einen echten API-Key erfordert (oder du Header selbst steuern möchtest).
Fehlerbehebung
- Prüfen, ob der Server erreichbar ist:
- Wenn Anfragen mit Authentifizierungsfehlern fehlschlagen, setze einen echten
VLLM_API_KEY, der zu deiner Serverkonfiguration passt, oder konfiguriere den Provider explizit untermodels.providers.vllm.
Verhalten im Proxy-Stil
vLLM wird als OpenAI-kompatibles/v1-Backend im Proxy-Stil behandelt, nicht als nativer OpenAI-Endpunkt.
- natives request shaping nur für OpenAI wird hier nicht angewendet
- kein
service_tier, kein Responses-store, keine Prompt-Cache-Hinweise und keine Formung von OpenAI-Reasoning-Kompatibilitäts-Payloads - versteckte OpenClaw-Attributions-Header (
originator,version,User-Agent) werden bei benutzerdefinierten vLLM-Base-URLs nicht eingefügt