Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
LiteLLM 是一個開源 LLM Gateway,提供統一 API,可連接 100 多個模型供應商。透過 LiteLLM 路由 OpenClaw,即可取得集中式成本追蹤、記錄功能,以及在不變更 OpenClaw 設定的情況下切換後端的彈性。
為什麼要搭配 OpenClaw 使用 LiteLLM?
- 成本追蹤 — 精確查看 OpenClaw 在所有模型上的花費
- 模型路由 — 在不變更設定的情況下,在 Claude、GPT-4、Gemini、Bedrock 之間切換
- 虛擬金鑰 — 為 OpenClaw 建立具有花費上限的金鑰
- 記錄 — 完整的請求/回應記錄,方便除錯
- 備援 — 主要供應商停機時自動故障轉移
快速開始
Onboarding (recommended)
Manual setup
**最適合:**最快完成可用 LiteLLM 設定的路徑。Run onboarding
openclaw onboard --auth-choice litellm-api-key
若要針對遠端 Proxy 進行非互動式設定,請明確傳入 Proxy URL:openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"
**最適合:**完整掌控安裝與設定。Start LiteLLM Proxy
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
Point OpenClaw to LiteLLM
export LITELLM_API_KEY="your-litellm-key"
openclaw
就這樣。OpenClaw 現在會透過 LiteLLM 路由。
環境變數
export LITELLM_API_KEY="sk-litellm-key"
設定檔
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
進階設定
圖片生成
LiteLLM 也可以透過 OpenAI 相容的
/images/generations 和 /images/edits 路由,支援 OpenClaw 的 image_generate 工具。請在 agents.defaults.imageGenerationModel 下設定 LiteLLM 圖片模型:
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
},
},
},
agents: {
defaults: {
imageGenerationModel: {
primary: "litellm/gpt-image-2",
timeoutMs: 180_000,
},
},
},
}
像 http://localhost:4000 這類 Loopback LiteLLM URL 無需全域
私有網路覆寫即可運作。若是 LAN 託管的 Proxy,請設定
models.providers.litellm.request.allowPrivateNetwork: true,因為 API 金鑰
會被送到已設定的 Proxy 主機。
為 OpenClaw 建立具有花費上限的專用金鑰:curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
將產生的金鑰用作 LITELLM_API_KEY。
LiteLLM 可以將模型請求路由到不同後端。請在你的 LiteLLM config.yaml 中設定:model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw 會持續請求 claude-opus-4-6 — LiteLLM 負責處理路由。
查看 LiteLLM 的儀表板或 API:# Key info
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Spend logs
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
- LiteLLM 預設在
http://localhost:4000 上執行
- OpenClaw 會透過 LiteLLM Proxy 風格、OpenAI 相容的
/v1
端點連線
- 原生 OpenAI 專用的請求塑形不會透過 LiteLLM 套用:
沒有
service_tier、沒有 Responses store、沒有提示快取提示,也沒有
OpenAI reasoning 相容酬載塑形
- 自訂 LiteLLM base URL 不會注入隱藏的 OpenClaw 歸因標頭(
originator、version、User-Agent)
如需一般供應商設定與故障轉移行為,請參閱模型供應商。
LiteLLM Docs
官方 LiteLLM 文件與 API 參考。
Model selection
所有供應商、模型參照與故障轉移行為的概覽。
Model selection
如何選擇並設定模型。