跳轉到主要內容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

LLM/模型供應商(不是 WhatsApp/Telegram 這類聊天通道)的參考資料。如需模型選擇規則,請參閱 模型

快速規則

  • 模型參照使用 provider/model(範例:opencode/claude-opus-4-6)。
  • 設定 agents.defaults.models 時,它會作為允許清單。
  • CLI 輔助工具:openclaw onboardopenclaw models listopenclaw models set <provider/model>
  • models.providers.*.contextWindow / contextTokens / maxTokens 會設定供應商層級的預設值;models.providers.*.models[].contextWindow / contextTokens / maxTokens 會依模型覆寫這些預設值。
  • 後援規則、冷卻探測,以及工作階段覆寫持久化:模型容錯移轉
OpenAI 系列路由依前綴區分:
  • openai/<model> 會使用 PI 中的直接 OpenAI API 金鑰供應商。
  • openai-codex/<model> 會使用 PI 中的 Codex OAuth。
  • openai/<model> 加上 agents.defaults.agentRuntime.id: "codex" 會使用原生 Codex 應用程式伺服器控制框架。
請參閱 OpenAICodex 控制框架。如果供應商/執行階段拆分令人困惑,請先閱讀 代理程式執行階段Plugin 自動啟用遵循相同邊界:openai-codex/<model> 屬於 OpenAI Plugin,而 Codex Plugin 會由 agentRuntime.id: "codex" 或舊版 codex/<model> 參照啟用。GPT-5.5 可透過 openai/gpt-5.5 用於直接 API 金鑰流量、透過 PI 中的 openai-codex/gpt-5.5 用於 Codex OAuth,並且在設定 agentRuntime.id: "codex" 時可使用原生 Codex 應用程式伺服器控制框架。
CLI 執行階段使用相同拆分:選擇標準模型參照,例如 anthropic/claude-*google/gemini-*openai/gpt-*,然後在想要本機 CLI 後端時,將 agents.defaults.agentRuntime.id 設為 claude-cligoogle-gemini-clicodex-cli舊版 claude-cli/*google-gemini-cli/*codex-cli/* 參照會遷移回標準供應商參照,並另行記錄執行階段。

Plugin 擁有的提供者行為

大多數提供者特定邏輯都位於提供者 Plugin(registerProvider(...))中,而 OpenClaw 保留通用推論迴圈。Plugin 負責 onboarding、模型目錄、驗證環境變數對應、傳輸/設定正規化、工具結構描述清理、故障轉移分類、OAuth 重新整理、用量回報、思考/推理設定檔等。 提供者 SDK hook 與內建 Plugin 範例的完整清單位於 提供者 Plugin。需要完全自訂請求執行器的提供者,屬於另一個更深入的擴充表面。
提供者擁有的執行器行為位於明確的提供者 hook 上,例如重播政策、工具結構描述正規化、串流包裝,以及傳輸/請求輔助工具。舊版 ProviderPlugin.capabilities 靜態包僅供相容性使用,共用執行器邏輯已不再讀取它。

API 金鑰輪替

透過以下方式設定多個金鑰:
  • OPENCLAW_LIVE_<PROVIDER>_KEY(單一即時覆寫,最高優先順序)
  • <PROVIDER>_API_KEYS(逗號或分號清單)
  • <PROVIDER>_API_KEY(主要金鑰)
  • <PROVIDER>_API_KEY_*(編號清單,例如 <PROVIDER>_API_KEY_1
對於 Google 提供者,GOOGLE_API_KEY 也會作為後援納入。金鑰選取順序會保留優先順序並移除重複值。
  • 只有在速率限制回應時,請求才會使用下一個金鑰重試(例如 429rate_limitquotaresource exhaustedToo many concurrent requestsThrottlingExceptionconcurrency limit reachedworkers_ai ... quota limit exceeded,或週期性的用量限制訊息)。
  • 非速率限制失敗會立即失敗;不會嘗試金鑰輪替。
  • 當所有候選金鑰都失敗時,最終錯誤會從最後一次嘗試傳回。

內建提供者(pi-ai 目錄)

OpenClaw 隨附 pi‑ai 目錄。這些提供者不需要 models.providers 設定;只要設定驗證並選擇模型即可。

OpenAI

  • 提供者:openai
  • 認證:OPENAI_API_KEY
  • 選用輪替:OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2,以及 OPENCLAW_LIVE_OPENAI_KEY(單一覆寫)
  • 範例模型:openai/gpt-5.5openai/gpt-5.4-mini
  • 如果特定安裝或 API 金鑰的行為不同,請使用 openclaw models list --provider openai 驗證帳號/模型可用性。
  • CLI:openclaw onboard --auth-choice openai-api-key
  • 預設傳輸為 auto(WebSocket 優先,SSE 備援)
  • 透過 agents.defaults.models["openai/<model>"].params.transport 依模型覆寫("sse""websocket""auto"
  • OpenAI Responses WebSocket 預熱預設透過 params.openaiWsWarmup 啟用(true/false
  • 可透過 agents.defaults.models["openai/<model>"].params.serviceTier 啟用 OpenAI 優先處理
  • /fastparams.fastMode 會將直接的 openai/* Responses 請求對應到 api.openai.com 上的 service_tier=priority
  • 當你想要明確指定層級,而不是使用共用的 /fast 切換時,請使用 params.serviceTier
  • 隱藏的 OpenClaw 歸屬標頭(originatorversionUser-Agent)只會套用在送往 api.openai.com 的原生 OpenAI 流量,不會套用在通用 OpenAI 相容代理
  • 原生 OpenAI 路由也會保留 Responses store、提示快取提示,以及 OpenAI 推理相容酬載塑形;代理路由則不會
  • openai/gpt-5.3-codex-spark 在 OpenClaw 中刻意被抑制,因為即時 OpenAI API 請求會拒絕它,而且目前的 Codex 目錄未公開它
{
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}

Anthropic

  • 提供者:anthropic
  • 認證:ANTHROPIC_API_KEY
  • 選用輪替:ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2,以及 OPENCLAW_LIVE_ANTHROPIC_KEY(單一覆寫)
  • 範例模型:anthropic/claude-opus-4-6
  • CLI:openclaw onboard --auth-choice apiKey
  • 直接的公開 Anthropic 請求支援共用的 /fast 切換和 params.fastMode,包含送往 api.anthropic.com 的 API 金鑰與 OAuth 認證流量;OpenClaw 會將其對應到 Anthropic service_tierauto 相對於 standard_only
  • 建議的 Claude CLI 設定會保留標準模型參照,並分開選擇 CLI 後端:anthropic/claude-opus-4-7 搭配 agents.defaults.agentRuntime.id: "claude-cli"。舊版 claude-cli/claude-opus-4-7 參照仍可為相容性運作。
Anthropic 工作人員告訴我們,OpenClaw 風格的 Claude CLI 使用方式已重新允許,因此除非 Anthropic 發布新政策,OpenClaw 會將 Claude CLI 重用和 claude -p 使用方式視為此整合已核准的用法。Anthropic setup-token 仍可作為受支援的 OpenClaw token 路徑使用,但 OpenClaw 現在會在可用時優先使用 Claude CLI 重用和 claude -p
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Codex OAuth

  • 提供者:openai-codex
  • 認證:OAuth(ChatGPT)
  • PI 模型參照:openai-codex/gpt-5.5
  • 原生 Codex app-server harness 參照:openai/gpt-5.5 搭配 agents.defaults.agentRuntime.id: "codex"
  • 原生 Codex app-server harness 文件:Codex harness
  • 舊版模型參照:codex/gpt-*
  • Plugin 邊界:openai-codex/* 會載入 OpenAI plugin;原生 Codex app-server plugin 只會由 Codex harness 執行階段或舊版 codex/* 參照選取。
  • CLI:openclaw onboard --auth-choice openai-codexopenclaw models auth login --provider openai-codex
  • 預設傳輸為 auto(WebSocket 優先,SSE 備援)
  • 透過 agents.defaults.models["openai-codex/<model>"].params.transport 依 PI 模型覆寫("sse""websocket""auto"
  • params.serviceTier 也會轉送到原生 Codex Responses 請求(chatgpt.com/backend-api
  • 隱藏的 OpenClaw 歸屬標頭(originatorversionUser-Agent)只會附加在送往 chatgpt.com/backend-api 的原生 Codex 流量,不會附加在通用 OpenAI 相容代理
  • 與直接的 openai/* 共用相同的 /fast 切換和 params.fastMode 設定;OpenClaw 會將其對應到 service_tier=priority
  • openai-codex/gpt-5.5 使用 Codex 目錄原生的 contextWindow = 400000 和預設執行階段 contextTokens = 272000;可使用 models.providers.openai-codex.models[].contextTokens 覆寫執行階段上限
  • 政策附註:OpenAI Codex OAuth 明確支援 OpenClaw 這類外部工具/工作流程。
  • 當你想使用 Codex OAuth/訂閱路由時,請使用 openai-codex/gpt-5.5;當你的 API 金鑰設定和本機目錄公開公開 API 路由時,請使用 openai/gpt-5.5
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.5" } } },
}
{
  models: {
    providers: {
      "openai-codex": {
        models: [{ id: "gpt-5.5", contextTokens: 160000 }],
      },
    },
  },
}

其他訂閱式代管選項

GLM 模型

Z.AI Coding Plan 或一般 API 端點。

MiniMax

MiniMax Coding Plan OAuth 或 API 金鑰存取。

Qwen Cloud

Qwen Cloud 提供者介面,以及 Alibaba DashScope 和 Coding Plan 端點對應。

OpenCode

  • 認證:OPENCODE_API_KEY(或 OPENCODE_ZEN_API_KEY
  • Zen 執行階段提供者:opencode
  • Go 執行階段提供者:opencode-go
  • 範例模型:opencode/claude-opus-4-6opencode-go/kimi-k2.6
  • CLI:openclaw onboard --auth-choice opencode-zenopenclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(API 金鑰)

  • 提供者:google
  • 認證:GEMINI_API_KEY
  • 選用輪替:GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY 備援,以及 OPENCLAW_LIVE_GEMINI_KEY(單一覆寫)
  • 範例模型:google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 相容性:使用 google/gemini-3.1-flash-preview 的舊版 OpenClaw 設定會正規化為 google/gemini-3-flash-preview
  • 別名:google/gemini-3.1-pro 會被接受,並正規化為 Google 的即時 Gemini API id:google/gemini-3.1-pro-preview
  • CLI:openclaw onboard --auth-choice gemini-api-key
  • 思考:/think adaptive 使用 Google 動態思考。Gemini 3/3.1 省略固定的 thinkingLevel;Gemini 2.5 會傳送 thinkingBudget: -1
  • 直接 Gemini 執行也接受 agents.defaults.models["google/<model>"].params.cachedContent(或舊版 cached_content),以轉送提供者原生的 cachedContents/... 控制代碼;Gemini 快取命中會以 OpenClaw cacheRead 呈現

Google Vertex 和 Gemini CLI

  • 提供者:google-vertexgoogle-gemini-cli
  • 認證:Vertex 使用 gcloud ADC;Gemini CLI 使用其 OAuth 流程
OpenClaw 中的 Gemini CLI OAuth 是非官方整合。有些使用者回報,使用第三方用戶端後 Google 帳號受到限制。請檢閱 Google 條款,若選擇繼續,請使用非關鍵帳號。
Gemini CLI OAuth 隨附於內建的 google plugin。
1

安裝 Gemini CLI

brew install gemini-cli
2

啟用 plugin

openclaw plugins enable google
3

登入

openclaw models auth login --provider google-gemini-cli --set-default
預設模型:google-gemini-cli/gemini-3-flash-preview。你要將用戶端 ID 或密鑰貼到 openclaw.json 中。CLI 登入流程會將權杖儲存在 Gateway 主機上的驗證設定檔中。
4

Set project (if needed)

如果登入後請求失敗,請在 Gateway 主機上設定 GOOGLE_CLOUD_PROJECTGOOGLE_CLOUD_PROJECT_ID
Gemini CLI JSON 回覆會從 response 解析;用量會退回使用 stats,並將 stats.cached 正規化為 OpenClaw cacheRead

Z.AI (GLM)

  • 提供者:zai
  • 驗證:ZAI_API_KEY
  • 範例模型:zai/glm-5.1
  • CLI:openclaw onboard --auth-choice zai-api-key
    • 別名:z.ai/*z-ai/* 會正規化為 zai/*
    • zai-api-key 會自動偵測相符的 Z.AI 端點;zai-coding-globalzai-coding-cnzai-globalzai-cn 會強制使用特定介面

Vercel AI Gateway

  • 提供者:vercel-ai-gateway
  • 驗證:AI_GATEWAY_API_KEY
  • 範例模型:vercel-ai-gateway/anthropic/claude-opus-4.6vercel-ai-gateway/moonshotai/kimi-k2.6
  • CLI:openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • 提供者:kilocode
  • 驗證:KILOCODE_API_KEY
  • 範例模型:kilocode/kilo/auto
  • CLI:openclaw onboard --auth-choice kilocode-api-key
  • 基礎 URL:https://api.kilo.ai/api/gateway/
  • 靜態後援目錄隨附 kilocode/kilo/auto;即時 https://api.kilo.ai/api/gateway/models 探索可進一步擴充執行階段目錄。
  • kilocode/kilo/auto 背後的確切上游路由由 Kilo Gateway 擁有,而不是硬編碼在 OpenClaw 中。
設定詳細資訊請見 /providers/kilocode

其他內建提供者 Plugin

提供者ID驗證環境變數範例模型
BytePlusbyteplus / byteplus-planBYTEPLUS_API_KEYbyteplus-plan/ark-code-latest
CerebrascerebrasCEREBRAS_API_KEYcerebras/zai-glm-4.7
Cloudflare AI Gatewaycloudflare-ai-gatewayCLOUDFLARE_AI_GATEWAY_API_KEY
DeepInfradeepinfraDEEPINFRA_API_KEYdeepinfra/deepseek-ai/DeepSeek-V3.2
DeepSeekdeepseekDEEPSEEK_API_KEYdeepseek/deepseek-v4-flash
GitHub Copilotgithub-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN
GroqgroqGROQ_API_KEY
Hugging Face InferencehuggingfaceHUGGINGFACE_HUB_TOKENHF_TOKENhuggingface/deepseek-ai/DeepSeek-R1
Kilo GatewaykilocodeKILOCODE_API_KEYkilocode/kilo/auto
Kimi CodingkimiKIMI_API_KEYKIMICODE_API_KEYkimi/kimi-code
MiniMaxminimax / minimax-portalMINIMAX_API_KEY / MINIMAX_OAUTH_TOKENminimax/MiniMax-M2.7
MistralmistralMISTRAL_API_KEYmistral/mistral-large-latest
MoonshotmoonshotMOONSHOT_API_KEYmoonshot/kimi-k2.6
NVIDIAnvidiaNVIDIA_API_KEYnvidia/nvidia/nemotron-3-super-120b-a12b
OpenRouteropenrouterOPENROUTER_API_KEYopenrouter/auto
QianfanqianfanQIANFAN_API_KEYqianfan/deepseek-v3.2
Qwen CloudqwenQWEN_API_KEY / MODELSTUDIO_API_KEY / DASHSCOPE_API_KEYqwen/qwen3.5-plus
StepFunstepfun / stepfun-planSTEPFUN_API_KEYstepfun/step-3.5-flash
TogethertogetherTOGETHER_API_KEYtogether/moonshotai/Kimi-K2.5
VeniceveniceVENICE_API_KEY
Vercel AI Gatewayvercel-ai-gatewayAI_GATEWAY_API_KEYvercel-ai-gateway/anthropic/claude-opus-4.6
Volcano Engine (Doubao)volcengine / volcengine-planVOLCANO_ENGINE_API_KEYvolcengine-plan/ark-code-latest
xAIxaiXAI_API_KEYxai/grok-4
XiaomixiaomiXIAOMI_API_KEYxiaomi/mimo-v2-flash

值得了解的特殊情況

只會在已驗證的 openrouter.ai 路由上套用其應用程式歸因標頭與 Anthropic cache_control 標記。DeepSeek、Moonshot 和 ZAI 參照符合 OpenRouter 管理的提示快取 cache-TTL 資格,但不會收到 Anthropic 快取標記。作為 Proxy 風格的 OpenAI 相容路徑,它會略過僅限原生 OpenAI 的塑形(serviceTier、Responses store、提示快取提示、OpenAI reasoning 相容性)。Gemini 後端參照只保留 Proxy-Gemini 思考簽章清理。
Gemini 後端參照會遵循相同的 Proxy-Gemini 清理路徑;kilocode/kilo/auto 和其他不支援 Proxy reasoning 的參照會略過 Proxy reasoning 注入。
API 金鑰上線會寫入明確的純文字 M2.7 聊天模型定義;影像理解仍由 Plugin 擁有的 MiniMax-VL-01 媒體提供者處理。
模型 ID 使用 nvidia/<vendor>/<model> 命名空間(例如 nvidia/nvidia/nemotron-...nvidia/moonshotai/kimi-k2.5 並列);選擇器會保留字面上的 <provider>/<model-id> 組合,而傳送至 API 的標準鍵仍保持單一前綴。
使用 xAI Responses 路徑。/fastparams.fastMode: true 會將 grok-3grok-3-minigrok-4grok-4-0709 改寫為其 *-fast 變體。tool_stream 預設開啟;可透過 agents.defaults.models["xai/<model>"].params.tool_stream=false 停用。
以內建的 cerebras 提供者 Plugin 隨附。GLM 使用 zai-glm-4.7;OpenAI 相容基礎 URL 為 https://api.cerebras.ai/v1

透過 models.providers 的提供者(自訂/基礎 URL)

使用 models.providers(或 models.json)新增自訂提供者或 OpenAI/Anthropic 相容 Proxy。 下方許多內建提供者 Plugin 已發布預設目錄。只有在你想覆寫預設基礎 URL、標頭或模型清單時,才使用明確的 models.providers.<id> 項目。 Gateway 模型功能檢查也會讀取明確的 models.providers.<id>.models[] 中繼資料。如果自訂或 Proxy 模型接受影像,請在該模型上設定 input: ["text", "image"],讓 WebChat 和節點來源附件路徑將影像作為原生模型輸入傳遞,而不是純文字媒體參照。

Moonshot AI (Kimi)

Moonshot 以內建提供者 Plugin 隨附。預設使用內建提供者,只有在需要覆寫基礎 URL 或模型中繼資料時,才新增明確的 models.providers.moonshot 項目:
  • 提供者:moonshot
  • 驗證:MOONSHOT_API_KEY
  • 範例模型:moonshot/kimi-k2.6
  • CLI:openclaw onboard --auth-choice moonshot-api-keyopenclaw onboard --auth-choice moonshot-api-key-cn
Kimi K2 模型 ID:
  • moonshot/kimi-k2.6
  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
  • moonshot/kimi-k2-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.6" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.6", name: "Kimi K2.6" }],
      },
    },
  },
}

Kimi 編碼

Kimi Coding 使用 Moonshot AI 的 Anthropic 相容端點:
  • 提供者:kimi
  • 驗證:KIMI_API_KEY
  • 範例模型:kimi/kimi-code
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi/kimi-code" } },
  },
}
舊版 kimi/k2p5 仍會作為相容模型 ID 被接受。

Volcano Engine (Doubao)

Volcano Engine (火山引擎) 在中國提供 Doubao 與其他模型的存取。
  • 提供者:volcengine(編碼:volcengine-plan
  • 驗證:VOLCANO_ENGINE_API_KEY
  • 範例模型:volcengine-plan/ark-code-latest
  • CLI:openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine-plan/ark-code-latest" } },
  },
}
入門流程預設使用編碼介面,但同時也會註冊一般 volcengine/* 目錄。 在入門/設定模型選擇器中,Volcengine 驗證選項會優先顯示 volcengine/*volcengine-plan/* 兩類列。如果這些模型尚未載入,OpenClaw 會退回未篩選的目錄,而不是顯示空的提供者範圍選擇器。
  • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127 (Kimi K2.5)
  • volcengine/glm-4-7-251222 (GLM 4.7)
  • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

BytePlus(國際)

BytePlus ARK 為國際使用者提供與 Volcano Engine 相同模型的存取。
  • 提供者:byteplus(編碼:byteplus-plan
  • 驗證:BYTEPLUS_API_KEY
  • 範例模型:byteplus-plan/ark-code-latest
  • CLI:openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus-plan/ark-code-latest" } },
  },
}
入門流程預設使用編碼介面,但同時也會註冊一般 byteplus/* 目錄。 在 onboarding/設定模型選擇器中,BytePlus 驗證選項會優先使用 byteplus/*byteplus-plan/* 兩種資料列。如果這些模型尚未載入,OpenClaw 會退回未篩選的目錄,而不是顯示空的、依提供者範圍限定的選擇器。
  • byteplus/seed-1-8-251228 (Seed 1.8)
  • byteplus/kimi-k2-5-260127 (Kimi K2.5)
  • byteplus/glm-4-7-251222 (GLM 4.7)

Synthetic

Synthetic 會在 synthetic 提供者後方提供與 Anthropic 相容的模型:
  • 提供者:synthetic
  • 驗證:SYNTHETIC_API_KEY
  • 範例模型:synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI:openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMax 透過 models.providers 設定,因為它使用自訂端點:
  • MiniMax OAuth(全球):--auth-choice minimax-global-oauth
  • MiniMax OAuth(中國):--auth-choice minimax-cn-oauth
  • MiniMax API 金鑰(全球):--auth-choice minimax-global-api
  • MiniMax API 金鑰(中國):--auth-choice minimax-cn-api
  • 驗證:minimax 使用 MINIMAX_API_KEYminimax-portal 使用 MINIMAX_OAUTH_TOKENMINIMAX_API_KEY
請參閱 /providers/minimax 以取得設定詳細資料、模型選項和設定片段。
在 MiniMax 的 Anthropic 相容串流路徑上,除非你明確設定,否則 OpenClaw 預設會停用 thinking,而 /fast on 會將 MiniMax-M2.7 改寫為 MiniMax-M2.7-highspeed
Plugin 擁有的功能切分:
  • 文字/聊天預設值維持在 minimax/MiniMax-M2.7
  • 圖片生成是 minimax/image-01minimax-portal/image-01
  • 圖片理解是在兩種 MiniMax 驗證路徑上由 Plugin 擁有的 MiniMax-VL-01
  • 網頁搜尋維持在提供者 ID minimax

LM Studio

LM Studio 隨附為 bundled provider plugin,並使用原生 API:
  • 提供者:lmstudio
  • 驗證:LM_API_TOKEN
  • 預設推論基底 URL:http://localhost:1234/v1
然後設定模型(替換為 http://localhost:1234/api/v1/models 傳回的其中一個 ID):
{
  agents: {
    defaults: { model: { primary: "lmstudio/openai/gpt-oss-20b" } },
  },
}
OpenClaw 使用 LM Studio 的原生 /api/v1/models/api/v1/models/load 進行探索與自動載入,並預設使用 /v1/chat/completions 進行推論。請參閱 /providers/lmstudio 以取得設定和疑難排解。

Ollama

Ollama 隨附為 bundled provider plugin,並使用 Ollama 的原生 API:
# Install Ollama, then pull a model:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}
當你使用 OLLAMA_API_KEY 選擇啟用時,OpenClaw 會在本機 http://127.0.0.1:11434 偵測 Ollama,而 bundled provider plugin 會將 Ollama 直接新增到 openclaw onboard 和模型選擇器。請參閱 /providers/ollama 以取得 onboarding、雲端/本機模式和自訂設定。

vLLM

vLLM 隨附為 bundled provider plugin,適用於本機/自架的 OpenAI 相容伺服器:
  • 提供者:vllm
  • 驗證:選用(取決於你的伺服器)
  • 預設基底 URL:http://127.0.0.1:8000/v1
若要在本機選擇啟用自動探索(如果你的伺服器不強制驗證,任何值都可以):
export VLLM_API_KEY="vllm-local"
然後設定模型(替換為 /v1/models 傳回的其中一個 ID):
{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}
請參閱 /providers/vllm 以取得詳細資料。

SGLang

SGLang 隨附為 bundled provider plugin,適用於快速自架的 OpenAI 相容伺服器:
  • 提供者:sglang
  • 驗證:選用(取決於你的伺服器)
  • 預設基底 URL:http://127.0.0.1:30000/v1
若要在本機選擇啟用自動探索(如果你的伺服器不強制驗證,任何值都可以):
export SGLANG_API_KEY="sglang-local"
然後設定模型(替換為 /v1/models 傳回的其中一個 ID):
{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}
請參閱 /providers/sglang 以取得詳細資料。

本機代理(LM Studio、vLLM、LiteLLM 等)

範例(OpenAI 相容):
{
  agents: {
    defaults: {
      model: { primary: "lmstudio/my-local-model" },
      models: { "lmstudio/my-local-model": { alias: "Local" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        timeoutSeconds: 300,
        models: [
          {
            id: "my-local-model",
            name: "Local Model",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}
對於自訂提供者,reasoninginputcostcontextWindowmaxTokens 都是選用項目。省略時,OpenClaw 預設為:
  • reasoning: false
  • input: ["text"]
  • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
  • contextWindow: 200000
  • maxTokens: 8192
建議:設定與你的代理/模型限制相符的明確值。
  • 對於非原生端點上的 api: "openai-completions"(任何非空的 baseUrl,且其主機不是 api.openai.com),OpenClaw 會強制 compat.supportsDeveloperRole: false,以避免提供者因不支援的 developer 角色而回傳 400 錯誤。
  • 代理式 OpenAI 相容路由也會略過僅限原生 OpenAI 的請求塑形:沒有 service_tier、沒有 Responses store、沒有 Completions store、沒有 prompt-cache 提示、沒有 OpenAI reasoning-compat 酬載塑形,也沒有隱藏的 OpenClaw attribution 標頭。
  • 對於需要廠商特定欄位的 OpenAI 相容 Completions 代理,設定 agents.defaults.models["provider/model"].params.extra_body(或 extraBody),將額外 JSON 合併到送出的請求主體中。
  • 對於 vLLM chat-template 控制項,設定 agents.defaults.models["provider/model"].params.chat_template_kwargs。當工作階段 thinking 層級關閉時,bundled vLLM plugin 會自動為 vllm/nemotron-3-* 傳送 enable_thinking: falseforce_nonempty_content: true
  • 對於較慢的本機模型或遠端 LAN/tailnet 主機,設定 models.providers.<id>.timeoutSeconds。這會延長提供者模型 HTTP 請求處理時間,包括連線、標頭、主體串流,以及整體受保護的 fetch 中止時間,而不會增加整個 agent 執行階段逾時。
  • 如果 baseUrl 為空或省略,OpenClaw 會保留預設 OpenAI 行為(解析為 api.openai.com)。
  • 為了安全,在非原生 openai-completions 端點上,即使明確設定 compat.supportsDeveloperRole: true 仍會被覆寫。
  • 對於非直接端點上的 api: "anthropic-messages"(任何不是標準 anthropic 的提供者,或自訂 models.providers.anthropic.baseUrl,且其主機不是公開 api.anthropic.com 端點),OpenClaw 會抑制隱含的 Anthropic beta 標頭,例如 claude-code-20250219interleaved-thinking-2025-05-14 和 OAuth 標記,因此自訂 Anthropic 相容代理不會拒絕不支援的 beta 旗標。如果你的代理需要特定 beta 功能,請明確設定 models.providers.<id>.headers["anthropic-beta"]

CLI 範例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
另請參閱:設定,以取得完整設定範例。

相關