vLLM
vLLM puede servir modelos de código abierto (y algunos personalizados) mediante una API HTTP compatible con OpenAI. OpenClaw puede conectarse a vLLM usando la APIopenai-completions.
OpenClaw también puede descubrir automáticamente los modelos disponibles de vLLM cuando optas por ello con VLLM_API_KEY (cualquier valor sirve si tu servidor no impone autenticación) y no defines una entrada explícita models.providers.vllm.
Inicio rápido
- Inicia vLLM con un servidor compatible con OpenAI.
/v1 (por ejemplo /v1/models, /v1/chat/completions). vLLM suele ejecutarse en:
http://127.0.0.1:8000/v1
- Activa la opción (cualquier valor sirve si no hay autenticación configurada):
- Selecciona un modelo (sustitúyelo por uno de los ids de modelo de tu vLLM):
Descubrimiento de modelos (proveedor implícito)
CuandoVLLM_API_KEY está definido (o existe un perfil de autenticación) y no defines models.providers.vllm, OpenClaw consultará:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm explícitamente, se omite el descubrimiento automático y debes definir los modelos manualmente.
Configuración explícita (modelos manuales)
Usa configuración explícita cuando:- vLLM se ejecuta en otro host/puerto.
- Quieres fijar valores
contextWindow/maxTokens. - Tu servidor requiere una clave API real (o quieres controlar los encabezados).
Solución de problemas
- Comprueba que el servidor sea accesible:
- Si las solicitudes fallan con errores de autenticación, establece un
VLLM_API_KEYreal que coincida con la configuración de tu servidor, o configura el proveedor explícitamente enmodels.providers.vllm.
Comportamiento estilo proxy
vLLM se trata como un backend/v1 compatible con OpenAI de estilo proxy, no como un endpoint nativo
de OpenAI.
- la conformación de solicitudes nativa solo de OpenAI no se aplica aquí
- no hay
service_tier, nistorede Responses, ni sugerencias de caché de prompts, ni conformación de carga útil de compatibilidad de razonamiento de OpenAI - los encabezados ocultos de atribución de OpenClaw (
originator,version,User-Agent) no se inyectan en URLs base personalizadas de vLLM