LiteLLM
LiteLLM 是一个开源 LLM 网关,为 100 多个模型提供商提供统一 API。通过 LiteLLM 转发 OpenClaw,你可以获得集中式成本跟踪、日志记录,以及在不更改 OpenClaw 配置的情况下切换后端的灵活性。为什么将 LiteLLM 与 OpenClaw 一起使用?
- 成本跟踪 — 精确查看 OpenClaw 在所有模型上的花费
- 模型路由 — 在 Claude、GPT-4、Gemini、Bedrock 之间切换,而无需更改配置
- 虚拟密钥 — 为 OpenClaw 创建带有支出限制的密钥
- 日志记录 — 用于调试的完整请求/响应日志
- 故障切换 — 当你的主提供商不可用时自动切换
快速开始
通过新手引导
手动设置
- 启动 LiteLLM Proxy:
- 将 OpenClaw 指向 LiteLLM:
配置
环境变量
配置文件
虚拟密钥
为 OpenClaw 创建一个带有支出限制的专用密钥:LITELLM_API_KEY。
模型路由
LiteLLM 可以将模型请求路由到不同后端。在你的 LiteLLMconfig.yaml 中进行配置:
claude-opus-4-6 —— 路由由 LiteLLM 处理。
查看使用情况
检查 LiteLLM 的仪表板或 API:说明
- LiteLLM 默认运行在
http://localhost:4000 - OpenClaw 通过 LiteLLM 的代理式、兼容 OpenAI 的
/v1端点进行连接 - 原生仅限 OpenAI 的请求整形不适用于通过 LiteLLM 的情况:
不支持
service_tier、不支持 Responsesstore、不支持提示词缓存提示,也不支持 OpenAI 推理兼容负载整形 - 在自定义 LiteLLM 基础 URL 上,不会注入隐藏的 OpenClaw 归因请求头(
originator、version、User-Agent)