vLLM
O vLLM pode servir modelos open source (e alguns modelos personalizados) por meio de uma API HTTP compatível com OpenAI. O OpenClaw pode se conectar ao vLLM usando a APIopenai-completions.
O OpenClaw também pode descobrir automaticamente os modelos disponíveis no vLLM quando você optar por isso com VLLM_API_KEY (qualquer valor funciona se seu servidor não exigir autenticação) e você não definir uma entrada explícita models.providers.vllm.
Início rápido
- Inicie o vLLM com um servidor compatível com OpenAI.
/v1 (por exemplo, /v1/models, /v1/chat/completions). O vLLM normalmente é executado em:
http://127.0.0.1:8000/v1
- Ative a opção (qualquer valor funciona se nenhuma autenticação estiver configurada):
- Selecione um modelo (substitua por um dos IDs de modelo do seu vLLM):
Descoberta de modelo (provedor implícito)
QuandoVLLM_API_KEY estiver definido (ou existir um perfil de autenticação) e você não definir models.providers.vllm, o OpenClaw consultará:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm explicitamente, a descoberta automática será ignorada e você precisará definir os modelos manualmente.
Configuração explícita (modelos manuais)
Use configuração explícita quando:- o vLLM estiver sendo executado em outro host/porta
- você quiser fixar os valores de
contextWindow/maxTokens - seu servidor exigir uma chave de API real (ou você quiser controlar os headers)
Solução de problemas
- Verifique se o servidor está acessível:
- Se as solicitações falharem com erros de autenticação, defina uma
VLLM_API_KEYreal que corresponda à configuração do seu servidor ou configure o provedor explicitamente emmodels.providers.vllm.
Comportamento no estilo proxy
O vLLM é tratado como um backend/v1 compatível com OpenAI no estilo proxy, não como um
endpoint OpenAI nativo.
- a formatação de requisição nativa exclusiva da OpenAI não se aplica aqui
- sem
service_tier, semstorede Responses, sem dicas de cache de prompt e sem formatação de payload de compatibilidade de raciocínio da OpenAI - headers ocultos de atribuição do OpenClaw (
originator,version,User-Agent) não são injetados em base URLs personalizadas de vLLM