LLM/模型供應商(不是 WhatsApp/Telegram 這類聊天通道)的參考資料。如需模型選擇規則,請參閱 模型。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
快速規則
模型參照與 CLI 輔助工具
模型參照與 CLI 輔助工具
- 模型參照使用
provider/model(範例:opencode/claude-opus-4-6)。 - 設定
agents.defaults.models時,它會作為允許清單。 - CLI 輔助工具:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 models.providers.*.contextWindow/contextTokens/maxTokens會設定供應商層級的預設值;models.providers.*.models[].contextWindow/contextTokens/maxTokens會依模型覆寫這些預設值。- 後援規則、冷卻探測,以及工作階段覆寫持久化:模型容錯移轉。
OpenAI 供應商/執行階段拆分
OpenAI 供應商/執行階段拆分
OpenAI 系列路由依前綴區分:
openai/<model>會使用 PI 中的直接 OpenAI API 金鑰供應商。openai-codex/<model>會使用 PI 中的 Codex OAuth。openai/<model>加上agents.defaults.agentRuntime.id: "codex"會使用原生 Codex 應用程式伺服器控制框架。
openai-codex/<model> 屬於 OpenAI Plugin,而 Codex Plugin 會由 agentRuntime.id: "codex" 或舊版 codex/<model> 參照啟用。GPT-5.5 可透過 openai/gpt-5.5 用於直接 API 金鑰流量、透過 PI 中的 openai-codex/gpt-5.5 用於 Codex OAuth,並且在設定 agentRuntime.id: "codex" 時可使用原生 Codex 應用程式伺服器控制框架。CLI 執行階段
CLI 執行階段
CLI 執行階段使用相同拆分:選擇標準模型參照,例如
anthropic/claude-*、google/gemini-* 或 openai/gpt-*,然後在想要本機 CLI 後端時,將 agents.defaults.agentRuntime.id 設為 claude-cli、google-gemini-cli 或 codex-cli。舊版 claude-cli/*、google-gemini-cli/* 與 codex-cli/* 參照會遷移回標準供應商參照,並另行記錄執行階段。Plugin 擁有的提供者行為
大多數提供者特定邏輯都位於提供者 Plugin(registerProvider(...))中,而 OpenClaw 保留通用推論迴圈。Plugin 負責 onboarding、模型目錄、驗證環境變數對應、傳輸/設定正規化、工具結構描述清理、故障轉移分類、OAuth 重新整理、用量回報、思考/推理設定檔等。
提供者 SDK hook 與內建 Plugin 範例的完整清單位於 提供者 Plugin。需要完全自訂請求執行器的提供者,屬於另一個更深入的擴充表面。
提供者擁有的執行器行為位於明確的提供者 hook 上,例如重播政策、工具結構描述正規化、串流包裝,以及傳輸/請求輔助工具。舊版
ProviderPlugin.capabilities 靜態包僅供相容性使用,共用執行器邏輯已不再讀取它。API 金鑰輪替
金鑰來源與優先順序
金鑰來源與優先順序
透過以下方式設定多個金鑰:
OPENCLAW_LIVE_<PROVIDER>_KEY(單一即時覆寫,最高優先順序)<PROVIDER>_API_KEYS(逗號或分號清單)<PROVIDER>_API_KEY(主要金鑰)<PROVIDER>_API_KEY_*(編號清單,例如<PROVIDER>_API_KEY_1)
GOOGLE_API_KEY 也會作為後援納入。金鑰選取順序會保留優先順序並移除重複值。何時啟動輪替
何時啟動輪替
- 只有在速率限制回應時,請求才會使用下一個金鑰重試(例如
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded,或週期性的用量限制訊息)。 - 非速率限制失敗會立即失敗;不會嘗試金鑰輪替。
- 當所有候選金鑰都失敗時,最終錯誤會從最後一次嘗試傳回。
內建提供者(pi-ai 目錄)
OpenClaw 隨附 pi‑ai 目錄。這些提供者不需要models.providers 設定;只要設定驗證並選擇模型即可。
OpenAI
- 提供者:
openai - 認證:
OPENAI_API_KEY - 選用輪替:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2,以及OPENCLAW_LIVE_OPENAI_KEY(單一覆寫) - 範例模型:
openai/gpt-5.5、openai/gpt-5.4-mini - 如果特定安裝或 API 金鑰的行為不同,請使用
openclaw models list --provider openai驗證帳號/模型可用性。 - CLI:
openclaw onboard --auth-choice openai-api-key - 預設傳輸為
auto(WebSocket 優先,SSE 備援) - 透過
agents.defaults.models["openai/<model>"].params.transport依模型覆寫("sse"、"websocket"或"auto") - OpenAI Responses WebSocket 預熱預設透過
params.openaiWsWarmup啟用(true/false) - 可透過
agents.defaults.models["openai/<model>"].params.serviceTier啟用 OpenAI 優先處理 /fast和params.fastMode會將直接的openai/*Responses 請求對應到api.openai.com上的service_tier=priority- 當你想要明確指定層級,而不是使用共用的
/fast切換時,請使用params.serviceTier - 隱藏的 OpenClaw 歸屬標頭(
originator、version、User-Agent)只會套用在送往api.openai.com的原生 OpenAI 流量,不會套用在通用 OpenAI 相容代理 - 原生 OpenAI 路由也會保留 Responses
store、提示快取提示,以及 OpenAI 推理相容酬載塑形;代理路由則不會 openai/gpt-5.3-codex-spark在 OpenClaw 中刻意被抑制,因為即時 OpenAI API 請求會拒絕它,而且目前的 Codex 目錄未公開它
Anthropic
- 提供者:
anthropic - 認證:
ANTHROPIC_API_KEY - 選用輪替:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2,以及OPENCLAW_LIVE_ANTHROPIC_KEY(單一覆寫) - 範例模型:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 直接的公開 Anthropic 請求支援共用的
/fast切換和params.fastMode,包含送往api.anthropic.com的 API 金鑰與 OAuth 認證流量;OpenClaw 會將其對應到 Anthropicservice_tier(auto相對於standard_only) - 建議的 Claude CLI 設定會保留標準模型參照,並分開選擇 CLI
後端:
anthropic/claude-opus-4-7搭配agents.defaults.agentRuntime.id: "claude-cli"。舊版claude-cli/claude-opus-4-7參照仍可為相容性運作。
Anthropic 工作人員告訴我們,OpenClaw 風格的 Claude CLI 使用方式已重新允許,因此除非 Anthropic 發布新政策,OpenClaw 會將 Claude CLI 重用和
claude -p 使用方式視為此整合已核准的用法。Anthropic setup-token 仍可作為受支援的 OpenClaw token 路徑使用,但 OpenClaw 現在會在可用時優先使用 Claude CLI 重用和 claude -p。OpenAI Codex OAuth
- 提供者:
openai-codex - 認證:OAuth(ChatGPT)
- PI 模型參照:
openai-codex/gpt-5.5 - 原生 Codex app-server harness 參照:
openai/gpt-5.5搭配agents.defaults.agentRuntime.id: "codex" - 原生 Codex app-server harness 文件:Codex harness
- 舊版模型參照:
codex/gpt-* - Plugin 邊界:
openai-codex/*會載入 OpenAI plugin;原生 Codex app-server plugin 只會由 Codex harness 執行階段或舊版codex/*參照選取。 - CLI:
openclaw onboard --auth-choice openai-codex或openclaw models auth login --provider openai-codex - 預設傳輸為
auto(WebSocket 優先,SSE 備援) - 透過
agents.defaults.models["openai-codex/<model>"].params.transport依 PI 模型覆寫("sse"、"websocket"或"auto") params.serviceTier也會轉送到原生 Codex Responses 請求(chatgpt.com/backend-api)- 隱藏的 OpenClaw 歸屬標頭(
originator、version、User-Agent)只會附加在送往chatgpt.com/backend-api的原生 Codex 流量,不會附加在通用 OpenAI 相容代理 - 與直接的
openai/*共用相同的/fast切換和params.fastMode設定;OpenClaw 會將其對應到service_tier=priority openai-codex/gpt-5.5使用 Codex 目錄原生的contextWindow = 400000和預設執行階段contextTokens = 272000;可使用models.providers.openai-codex.models[].contextTokens覆寫執行階段上限- 政策附註:OpenAI Codex OAuth 明確支援 OpenClaw 這類外部工具/工作流程。
- 當你想使用 Codex OAuth/訂閱路由時,請使用
openai-codex/gpt-5.5;當你的 API 金鑰設定和本機目錄公開公開 API 路由時,請使用openai/gpt-5.5。
其他訂閱式代管選項
GLM 模型
Z.AI Coding Plan 或一般 API 端點。
MiniMax
MiniMax Coding Plan OAuth 或 API 金鑰存取。
Qwen Cloud
Qwen Cloud 提供者介面,以及 Alibaba DashScope 和 Coding Plan 端點對應。
OpenCode
- 認證:
OPENCODE_API_KEY(或OPENCODE_ZEN_API_KEY) - Zen 執行階段提供者:
opencode - Go 執行階段提供者:
opencode-go - 範例模型:
opencode/claude-opus-4-6、opencode-go/kimi-k2.6 - CLI:
openclaw onboard --auth-choice opencode-zen或openclaw onboard --auth-choice opencode-go
Google Gemini(API 金鑰)
- 提供者:
google - 認證:
GEMINI_API_KEY - 選用輪替:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEY備援,以及OPENCLAW_LIVE_GEMINI_KEY(單一覆寫) - 範例模型:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 相容性:使用
google/gemini-3.1-flash-preview的舊版 OpenClaw 設定會正規化為google/gemini-3-flash-preview - 別名:
google/gemini-3.1-pro會被接受,並正規化為 Google 的即時 Gemini API id:google/gemini-3.1-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - 思考:
/think adaptive使用 Google 動態思考。Gemini 3/3.1 省略固定的thinkingLevel;Gemini 2.5 會傳送thinkingBudget: -1。 - 直接 Gemini 執行也接受
agents.defaults.models["google/<model>"].params.cachedContent(或舊版cached_content),以轉送提供者原生的cachedContents/...控制代碼;Gemini 快取命中會以 OpenClawcacheRead呈現
Google Vertex 和 Gemini CLI
- 提供者:
google-vertex、google-gemini-cli - 認證:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
google plugin。
登入
google-gemini-cli/gemini-3-flash-preview。你不要將用戶端 ID 或密鑰貼到 openclaw.json 中。CLI 登入流程會將權杖儲存在 Gateway 主機上的驗證設定檔中。response 解析;用量會退回使用 stats,並將 stats.cached 正規化為 OpenClaw cacheRead。
Z.AI (GLM)
- 提供者:
zai - 驗證:
ZAI_API_KEY - 範例模型:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- 別名:
z.ai/*和z-ai/*會正規化為zai/* zai-api-key會自動偵測相符的 Z.AI 端點;zai-coding-global、zai-coding-cn、zai-global和zai-cn會強制使用特定介面
- 別名:
Vercel AI Gateway
- 提供者:
vercel-ai-gateway - 驗證:
AI_GATEWAY_API_KEY - 範例模型:
vercel-ai-gateway/anthropic/claude-opus-4.6、vercel-ai-gateway/moonshotai/kimi-k2.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- 提供者:
kilocode - 驗證:
KILOCODE_API_KEY - 範例模型:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - 基礎 URL:
https://api.kilo.ai/api/gateway/ - 靜態後援目錄隨附
kilocode/kilo/auto;即時https://api.kilo.ai/api/gateway/models探索可進一步擴充執行階段目錄。 kilocode/kilo/auto背後的確切上游路由由 Kilo Gateway 擁有,而不是硬編碼在 OpenClaw 中。
其他內建提供者 Plugin
| 提供者 | ID | 驗證環境變數 | 範例模型 |
|---|---|---|---|
| BytePlus | byteplus / byteplus-plan | BYTEPLUS_API_KEY | byteplus-plan/ark-code-latest |
| Cerebras | cerebras | CEREBRAS_API_KEY | cerebras/zai-glm-4.7 |
| Cloudflare AI Gateway | cloudflare-ai-gateway | CLOUDFLARE_AI_GATEWAY_API_KEY | — |
| DeepInfra | deepinfra | DEEPINFRA_API_KEY | deepinfra/deepseek-ai/DeepSeek-V3.2 |
| DeepSeek | deepseek | DEEPSEEK_API_KEY | deepseek/deepseek-v4-flash |
| GitHub Copilot | github-copilot | COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN | — |
| Groq | groq | GROQ_API_KEY | — |
| Hugging Face Inference | huggingface | HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN | huggingface/deepseek-ai/DeepSeek-R1 |
| Kilo Gateway | kilocode | KILOCODE_API_KEY | kilocode/kilo/auto |
| Kimi Coding | kimi | KIMI_API_KEY 或 KIMICODE_API_KEY | kimi/kimi-code |
| MiniMax | minimax / minimax-portal | MINIMAX_API_KEY / MINIMAX_OAUTH_TOKEN | minimax/MiniMax-M2.7 |
| Mistral | mistral | MISTRAL_API_KEY | mistral/mistral-large-latest |
| Moonshot | moonshot | MOONSHOT_API_KEY | moonshot/kimi-k2.6 |
| NVIDIA | nvidia | NVIDIA_API_KEY | nvidia/nvidia/nemotron-3-super-120b-a12b |
| OpenRouter | openrouter | OPENROUTER_API_KEY | openrouter/auto |
| Qianfan | qianfan | QIANFAN_API_KEY | qianfan/deepseek-v3.2 |
| Qwen Cloud | qwen | QWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEY | qwen/qwen3.5-plus |
| StepFun | stepfun / stepfun-plan | STEPFUN_API_KEY | stepfun/step-3.5-flash |
| Together | together | TOGETHER_API_KEY | together/moonshotai/Kimi-K2.5 |
| Venice | venice | VENICE_API_KEY | — |
| Vercel AI Gateway | vercel-ai-gateway | AI_GATEWAY_API_KEY | vercel-ai-gateway/anthropic/claude-opus-4.6 |
| Volcano Engine (Doubao) | volcengine / volcengine-plan | VOLCANO_ENGINE_API_KEY | volcengine-plan/ark-code-latest |
| xAI | xai | XAI_API_KEY | xai/grok-4 |
| Xiaomi | xiaomi | XIAOMI_API_KEY | xiaomi/mimo-v2-flash |
值得了解的特殊情況
OpenRouter
OpenRouter
只會在已驗證的
openrouter.ai 路由上套用其應用程式歸因標頭與 Anthropic cache_control 標記。DeepSeek、Moonshot 和 ZAI 參照符合 OpenRouter 管理的提示快取 cache-TTL 資格,但不會收到 Anthropic 快取標記。作為 Proxy 風格的 OpenAI 相容路徑,它會略過僅限原生 OpenAI 的塑形(serviceTier、Responses store、提示快取提示、OpenAI reasoning 相容性)。Gemini 後端參照只保留 Proxy-Gemini 思考簽章清理。Kilo Gateway
Kilo Gateway
Gemini 後端參照會遵循相同的 Proxy-Gemini 清理路徑;
kilocode/kilo/auto 和其他不支援 Proxy reasoning 的參照會略過 Proxy reasoning 注入。MiniMax
MiniMax
API 金鑰上線會寫入明確的純文字 M2.7 聊天模型定義;影像理解仍由 Plugin 擁有的
MiniMax-VL-01 媒體提供者處理。NVIDIA
NVIDIA
模型 ID 使用
nvidia/<vendor>/<model> 命名空間(例如 nvidia/nvidia/nemotron-... 與 nvidia/moonshotai/kimi-k2.5 並列);選擇器會保留字面上的 <provider>/<model-id> 組合,而傳送至 API 的標準鍵仍保持單一前綴。xAI
xAI
使用 xAI Responses 路徑。
/fast 或 params.fastMode: true 會將 grok-3、grok-3-mini、grok-4 和 grok-4-0709 改寫為其 *-fast 變體。tool_stream 預設開啟;可透過 agents.defaults.models["xai/<model>"].params.tool_stream=false 停用。Cerebras
Cerebras
以內建的
cerebras 提供者 Plugin 隨附。GLM 使用 zai-glm-4.7;OpenAI 相容基礎 URL 為 https://api.cerebras.ai/v1。透過 models.providers 的提供者(自訂/基礎 URL)
使用 models.providers(或 models.json)新增自訂提供者或 OpenAI/Anthropic 相容 Proxy。
下方許多內建提供者 Plugin 已發布預設目錄。只有在你想覆寫預設基礎 URL、標頭或模型清單時,才使用明確的 models.providers.<id> 項目。
Gateway 模型功能檢查也會讀取明確的 models.providers.<id>.models[] 中繼資料。如果自訂或 Proxy 模型接受影像,請在該模型上設定 input: ["text", "image"],讓 WebChat 和節點來源附件路徑將影像作為原生模型輸入傳遞,而不是純文字媒體參照。
Moonshot AI (Kimi)
Moonshot 以內建提供者 Plugin 隨附。預設使用內建提供者,只有在需要覆寫基礎 URL 或模型中繼資料時,才新增明確的models.providers.moonshot 項目:
- 提供者:
moonshot - 驗證:
MOONSHOT_API_KEY - 範例模型:
moonshot/kimi-k2.6 - CLI:
openclaw onboard --auth-choice moonshot-api-key或openclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.6moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi 編碼
Kimi Coding 使用 Moonshot AI 的 Anthropic 相容端點:- 提供者:
kimi - 驗證:
KIMI_API_KEY - 範例模型:
kimi/kimi-code
kimi/k2p5 仍會作為相容模型 ID 被接受。
Volcano Engine (Doubao)
Volcano Engine (火山引擎) 在中國提供 Doubao 與其他模型的存取。- 提供者:
volcengine(編碼:volcengine-plan) - 驗證:
VOLCANO_ENGINE_API_KEY - 範例模型:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/* 目錄。
在入門/設定模型選擇器中,Volcengine 驗證選項會優先顯示 volcengine/* 和 volcengine-plan/* 兩類列。如果這些模型尚未載入,OpenClaw 會退回未篩選的目錄,而不是顯示空的提供者範圍選擇器。
- 標準模型
- 編碼模型 (volcengine-plan)
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
BytePlus(國際)
BytePlus ARK 為國際使用者提供與 Volcano Engine 相同模型的存取。- 提供者:
byteplus(編碼:byteplus-plan) - 驗證:
BYTEPLUS_API_KEY - 範例模型:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/* 目錄。
在 onboarding/設定模型選擇器中,BytePlus 驗證選項會優先使用 byteplus/* 和 byteplus-plan/* 兩種資料列。如果這些模型尚未載入,OpenClaw 會退回未篩選的目錄,而不是顯示空的、依提供者範圍限定的選擇器。
- Standard models
- Coding models (byteplus-plan)
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Synthetic
Synthetic 會在synthetic 提供者後方提供與 Anthropic 相容的模型:
- 提供者:
synthetic - 驗證:
SYNTHETIC_API_KEY - 範例模型:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax 透過models.providers 設定,因為它使用自訂端點:
- MiniMax OAuth(全球):
--auth-choice minimax-global-oauth - MiniMax OAuth(中國):
--auth-choice minimax-cn-oauth - MiniMax API 金鑰(全球):
--auth-choice minimax-global-api - MiniMax API 金鑰(中國):
--auth-choice minimax-cn-api - 驗證:
minimax使用MINIMAX_API_KEY;minimax-portal使用MINIMAX_OAUTH_TOKEN或MINIMAX_API_KEY
在 MiniMax 的 Anthropic 相容串流路徑上,除非你明確設定,否則 OpenClaw 預設會停用 thinking,而
/fast on 會將 MiniMax-M2.7 改寫為 MiniMax-M2.7-highspeed。- 文字/聊天預設值維持在
minimax/MiniMax-M2.7 - 圖片生成是
minimax/image-01或minimax-portal/image-01 - 圖片理解是在兩種 MiniMax 驗證路徑上由 Plugin 擁有的
MiniMax-VL-01 - 網頁搜尋維持在提供者 ID
minimax
LM Studio
LM Studio 隨附為 bundled provider plugin,並使用原生 API:- 提供者:
lmstudio - 驗證:
LM_API_TOKEN - 預設推論基底 URL:
http://localhost:1234/v1
http://localhost:1234/api/v1/models 傳回的其中一個 ID):
/api/v1/models 和 /api/v1/models/load 進行探索與自動載入,並預設使用 /v1/chat/completions 進行推論。請參閱 /providers/lmstudio 以取得設定和疑難排解。
Ollama
Ollama 隨附為 bundled provider plugin,並使用 Ollama 的原生 API:- 提供者:
ollama - 驗證:不需要(本機伺服器)
- 範例模型:
ollama/llama3.3 - 安裝:https://ollama.com/download
OLLAMA_API_KEY 選擇啟用時,OpenClaw 會在本機 http://127.0.0.1:11434 偵測 Ollama,而 bundled provider plugin 會將 Ollama 直接新增到 openclaw onboard 和模型選擇器。請參閱 /providers/ollama 以取得 onboarding、雲端/本機模式和自訂設定。
vLLM
vLLM 隨附為 bundled provider plugin,適用於本機/自架的 OpenAI 相容伺服器:- 提供者:
vllm - 驗證:選用(取決於你的伺服器)
- 預設基底 URL:
http://127.0.0.1:8000/v1
/v1/models 傳回的其中一個 ID):
SGLang
SGLang 隨附為 bundled provider plugin,適用於快速自架的 OpenAI 相容伺服器:- 提供者:
sglang - 驗證:選用(取決於你的伺服器)
- 預設基底 URL:
http://127.0.0.1:30000/v1
/v1/models 傳回的其中一個 ID):
本機代理(LM Studio、vLLM、LiteLLM 等)
範例(OpenAI 相容):Default optional fields
Default optional fields
對於自訂提供者,
reasoning、input、cost、contextWindow 和 maxTokens 都是選用項目。省略時,OpenClaw 預設為:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
Proxy-route shaping rules
Proxy-route shaping rules
- 對於非原生端點上的
api: "openai-completions"(任何非空的baseUrl,且其主機不是api.openai.com),OpenClaw 會強制compat.supportsDeveloperRole: false,以避免提供者因不支援的developer角色而回傳 400 錯誤。 - 代理式 OpenAI 相容路由也會略過僅限原生 OpenAI 的請求塑形:沒有
service_tier、沒有 Responsesstore、沒有 Completionsstore、沒有 prompt-cache 提示、沒有 OpenAI reasoning-compat 酬載塑形,也沒有隱藏的 OpenClaw attribution 標頭。 - 對於需要廠商特定欄位的 OpenAI 相容 Completions 代理,設定
agents.defaults.models["provider/model"].params.extra_body(或extraBody),將額外 JSON 合併到送出的請求主體中。 - 對於 vLLM chat-template 控制項,設定
agents.defaults.models["provider/model"].params.chat_template_kwargs。當工作階段 thinking 層級關閉時,bundled vLLM plugin 會自動為vllm/nemotron-3-*傳送enable_thinking: false和force_nonempty_content: true。 - 對於較慢的本機模型或遠端 LAN/tailnet 主機,設定
models.providers.<id>.timeoutSeconds。這會延長提供者模型 HTTP 請求處理時間,包括連線、標頭、主體串流,以及整體受保護的 fetch 中止時間,而不會增加整個 agent 執行階段逾時。 - 如果
baseUrl為空或省略,OpenClaw 會保留預設 OpenAI 行為(解析為api.openai.com)。 - 為了安全,在非原生
openai-completions端點上,即使明確設定compat.supportsDeveloperRole: true仍會被覆寫。 - 對於非直接端點上的
api: "anthropic-messages"(任何不是標準anthropic的提供者,或自訂models.providers.anthropic.baseUrl,且其主機不是公開api.anthropic.com端點),OpenClaw 會抑制隱含的 Anthropic beta 標頭,例如claude-code-20250219、interleaved-thinking-2025-05-14和 OAuth 標記,因此自訂 Anthropic 相容代理不會拒絕不支援的 beta 旗標。如果你的代理需要特定 beta 功能,請明確設定models.providers.<id>.headers["anthropic-beta"]。