vLLM
vLLM 可以通过 OpenAI 兼容的 HTTP API 提供开源模型(以及某些自定义模型)服务。OpenClaw 可以使用openai-completions API 连接到 vLLM。
当你通过 VLLM_API_KEY 选择启用时,OpenClaw 还可以从 vLLM 自动发现可用模型(如果你的服务器不强制认证,任意值都可以),前提是你没有定义显式的 models.providers.vllm 条目。
快速开始
- 使用 OpenAI 兼容服务器启动 vLLM。
/v1 端点(例如 /v1/models、/v1/chat/completions)。vLLM 常见运行地址为:
http://127.0.0.1:8000/v1
- 选择启用它(如果未配置认证,任意值都可以):
- 选择一个模型(替换为你的 vLLM 模型 ID 之一):
模型发现(隐式 provider)
当设置了VLLM_API_KEY(或存在认证配置文件),并且你没有定义 models.providers.vllm 时,OpenClaw 将查询:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm,则会跳过自动发现,你必须手动定义模型。
显式配置(手动模型)
在以下情况下使用显式配置:- vLLM 运行在其他主机或端口上。
- 你想固定
contextWindow/maxTokens的值。 - 你的服务器需要真实 API 密钥(或你想控制请求头)。
故障排除
- 检查服务器是否可达:
- 如果请求因认证错误而失败,请设置与你的服务器配置匹配的真实
VLLM_API_KEY,或在models.providers.vllm下显式配置该 provider。
代理式行为
vLLM 被视为一种代理式 OpenAI 兼容/v1 后端,而不是原生
OpenAI 端点。
- 这里不适用仅限原生 OpenAI 的请求塑形
- 不支持
service_tier、Responsesstore、提示缓存提示,也不支持 OpenAI 推理兼容负载塑形 - 在自定义 vLLM 基础 URL 上,不会注入隐藏的 OpenClaw 归因请求头
(
originator、version、User-Agent)