vLLM
O vLLM pode servir modelos open-source (e alguns modelos personalizados) por meio de uma API HTTP compatível com OpenAI. O OpenClaw se conecta ao vLLM usando a APIopenai-completions.
O OpenClaw também pode descobrir automaticamente os modelos disponíveis no vLLM quando você optar por isso com VLLM_API_KEY (qualquer valor funciona se o seu servidor não exigir auth) e você não definir uma entrada explícita models.providers.vllm.
| Propriedade | Valor |
|---|---|
| ID do provedor | vllm |
| API | openai-completions (compatível com OpenAI) |
| Auth | variável de ambiente VLLM_API_KEY |
| Base URL padrão | http://127.0.0.1:8000/v1 |
Primeiros passos
Inicie o vLLM com um servidor compatível com OpenAI
Sua base URL deve expor endpoints
/v1 (por exemplo, /v1/models, /v1/chat/completions). O vLLM costuma ser executado em:Defina a variável de ambiente da chave de API
Qualquer valor funciona se o seu servidor não exigir auth:
Descoberta de modelos (provedor implícito)
QuandoVLLM_API_KEY está definido (ou existe um perfil de auth) e você não define models.providers.vllm, o OpenClaw consulta:
Se você definir
models.providers.vllm explicitamente, a descoberta automática será ignorada e você precisará definir os modelos manualmente.Configuração explícita (modelos manuais)
Use configuração explícita quando:- o vLLM estiver em execução em outro host ou porta
- você quiser fixar valores de
contextWindowoumaxTokens - o seu servidor exigir uma chave de API real (ou você quiser controlar cabeçalhos)
Observações avançadas
Comportamento no estilo proxy
Comportamento no estilo proxy
O vLLM é tratado como um backend
/v1 compatível com OpenAI no estilo proxy, não como um endpoint nativo
da OpenAI. Isso significa:| Comportamento | Aplicado? |
|---|---|
| Formatação nativa de solicitação da OpenAI | Não |
service_tier | Não é enviado |
Responses store | Não é enviado |
| Dicas de cache de prompt | Não são enviadas |
| Formatação de payload de compatibilidade de reasoning da OpenAI | Não é aplicada |
| Cabeçalhos ocultos de atribuição do OpenClaw | Não são injetados em base URLs personalizadas |
Base URL personalizada
Base URL personalizada
Se o seu servidor vLLM estiver em execução em um host ou porta fora do padrão, defina
baseUrl na configuração explícita do provedor:Solução de problemas
Servidor inacessível
Servidor inacessível
Verifique se o servidor vLLM está em execução e acessível:Se você vir um erro de conexão, verifique o host, a porta e se o vLLM foi iniciado no modo de servidor compatível com OpenAI.
Erros de auth nas solicitações
Erros de auth nas solicitações
Se as solicitações falharem com erros de auth, defina um
VLLM_API_KEY real que corresponda à configuração do seu servidor ou configure o provedor explicitamente em models.providers.vllm.Nenhum modelo descoberto
Nenhum modelo descoberto
A descoberta automática exige que
VLLM_API_KEY esteja definido e que não exista uma entrada de configuração explícita models.providers.vllm. Se você definiu o provedor manualmente, o OpenClaw ignora a descoberta e usa apenas os modelos declarados por você.Relacionado
Seleção de modelo
Escolha de provedores, refs de modelo e comportamento de failover.
OpenAI
Provedor nativo da OpenAI e comportamento de rotas compatíveis com OpenAI.
OAuth e auth
Detalhes de auth e regras de reutilização de credenciais.
Solução de problemas
Problemas comuns e como resolvê-los.