vLLM
vLLM può servire modelli open-source (e alcuni personalizzati) tramite un’API HTTP compatibile con OpenAI. OpenClaw può connettersi a vLLM usando l’APIopenai-completions.
OpenClaw può anche rilevare automaticamente i modelli disponibili da vLLM quando fai opt-in con VLLM_API_KEY (qualsiasi valore funziona se il tuo server non applica l’autenticazione) e non definisci una voce esplicita models.providers.vllm.
Avvio rapido
- Avvia vLLM con un server compatibile con OpenAI.
/v1 (ad es. /v1/models, /v1/chat/completions). vLLM viene comunemente eseguito su:
http://127.0.0.1:8000/v1
- Esegui l’opt-in (qualsiasi valore funziona se non è configurata alcuna autenticazione):
- Seleziona un modello (sostituisci con uno degli ID modello del tuo vLLM):
Rilevamento dei modelli (provider implicito)
QuandoVLLM_API_KEY è impostato (oppure esiste un profilo auth) e non definisci models.providers.vllm, OpenClaw interroga:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm, il rilevamento automatico viene saltato e devi definire i modelli manualmente.
Configurazione esplicita (modelli manuali)
Usa la configurazione esplicita quando:- vLLM è eseguito su un host/porta diversi.
- Vuoi fissare i valori
contextWindow/maxTokens. - Il tuo server richiede una vera chiave API (oppure vuoi controllare gli header).
Risoluzione dei problemi
- Controlla che il server sia raggiungibile:
- Se le richieste falliscono con errori di autenticazione, imposta una vera
VLLM_API_KEYche corrisponda alla configurazione del tuo server, oppure configura esplicitamente il provider sottomodels.providers.vllm.
Comportamento in stile proxy
vLLM viene trattato come backend proxy-style/v1 compatibile con OpenAI, non come endpoint
OpenAI nativo.
- la modellazione delle richieste riservata al solo OpenAI nativo non si applica qui
- nessun
service_tier, nessunstoredi Responses, nessun suggerimento di prompt-cache e nessuna modellazione del payload di compatibilità con il ragionamento OpenAI - gli header nascosti di attribuzione OpenClaw (
originator,version,User-Agent) non vengono iniettati subaseUrlvLLM personalizzati