vLLM
vLLM puede servir modelos de código abierto (y algunos modelos personalizados) mediante una API HTTP compatible con OpenAI. OpenClaw se conecta a vLLM usando la APIopenai-completions.
OpenClaw también puede descubrir automáticamente los modelos disponibles desde vLLM cuando activas esta opción con VLLM_API_KEY (cualquier valor funciona si tu servidor no exige autenticación) y no defines una entrada explícita models.providers.vllm.
| Propiedad | Valor |
|---|---|
| ID del proveedor | vllm |
| API | openai-completions (compatible con OpenAI) |
| Autenticación | Variable de entorno VLLM_API_KEY |
| Base URL predeterminada | http://127.0.0.1:8000/v1 |
Primeros pasos
Start vLLM with an OpenAI-compatible server
Tu base URL debe exponer endpoints
/v1 (por ejemplo, /v1/models, /v1/chat/completions). vLLM suele ejecutarse en:Set the API key environment variable
Cualquier valor funciona si tu servidor no exige autenticación:
Descubrimiento de modelos (proveedor implícito)
CuandoVLLM_API_KEY está configurado (o existe un perfil de autenticación) y no defines models.providers.vllm, OpenClaw consulta:
Si configuras explícitamente
models.providers.vllm, se omite el descubrimiento automático y debes definir los modelos manualmente.Configuración explícita (modelos manuales)
Usa configuración explícita cuando:- vLLM se ejecuta en otro host o puerto
- Quieres fijar los valores de
contextWindowomaxTokens - Tu servidor requiere una clave API real (o quieres controlar los encabezados)
Notas avanzadas
Proxy-style behavior
Proxy-style behavior
vLLM se trata como un backend
/v1 compatible con OpenAI de estilo proxy, no como un endpoint
nativo de OpenAI. Esto significa:| Comportamiento | ¿Se aplica? |
|---|---|
| Modelado nativo de solicitudes de OpenAI | No |
service_tier | No se envía |
Responses store | No se envía |
| Sugerencias de caché de prompt | No se envían |
| Modelado de payload de compatibilidad de razonamiento de OpenAI | No se aplica |
| Encabezados ocultos de atribución de OpenClaw | No se inyectan en base URLs personalizadas |
Custom base URL
Custom base URL
Si tu servidor vLLM se ejecuta en un host o puerto no predeterminado, establece
baseUrl en la configuración explícita del proveedor:Solución de problemas
Server not reachable
Server not reachable
Comprueba que el servidor vLLM esté en ejecución y sea accesible:Si ves un error de conexión, verifica el host, el puerto y que vLLM se haya iniciado en modo de servidor compatible con OpenAI.
Auth errors on requests
Auth errors on requests
Si las solicitudes fallan con errores de autenticación, establece un
VLLM_API_KEY real que coincida con la configuración de tu servidor, o configura explícitamente el proveedor en models.providers.vllm.No models discovered
No models discovered
El descubrimiento automático requiere que
VLLM_API_KEY esté configurado y que no exista una entrada explícita de configuración models.providers.vllm. Si has definido manualmente el proveedor, OpenClaw omite el descubrimiento y usa solo los modelos declarados.Relacionado
Model selection
Elegir proveedores, referencias de modelos y comportamiento de failover.
OpenAI
Proveedor nativo de OpenAI y comportamiento de rutas compatibles con OpenAI.
OAuth and auth
Detalles de autenticación y reglas de reutilización de credenciales.
Troubleshooting
Problemas comunes y cómo resolverlos.