OpenAI 提供 GPT 模型的開發者 API,而 Codex 也可透過 OpenAI 的 Codex 用戶端,作為 ChatGPT 方案的程式碼撰寫代理使用。OpenClaw 會將這些介面分開,讓設定保持可預測。 OpenClaw 支援三種 OpenAI 系列路由。模型前綴會選擇提供者/驗證路由;另一個獨立的執行階段設定會選擇由誰執行內嵌代理迴圈:Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- API 金鑰 — 直接使用 OpenAI Platform,依用量計費(
openai/*模型) - 透過 PI 使用 Codex 訂閱 — 以 ChatGPT/Codex 登入並使用訂閱存取權(
openai-codex/*模型) - Codex 應用程式伺服器控制框架 — 原生 Codex 應用程式伺服器執行(
openai/*模型加上agents.defaults.agentRuntime.id: "codex")
快速選擇
| 目標 | 使用 | 備註 |
|---|---|---|
| 直接以 API 金鑰計費 | openai/gpt-5.5 | 設定 OPENAI_API_KEY,或執行 OpenAI API 金鑰初始設定。 |
| 使用 ChatGPT/Codex 訂閱驗證的 GPT-5.5 | openai-codex/gpt-5.5 | Codex OAuth 的預設 PI 路由。訂閱設定的首選。 |
| 使用原生 Codex 應用程式伺服器行為的 GPT-5.5 | openai/gpt-5.5 加上 agentRuntime.id: "codex" | 對該模型參照強制使用 Codex 應用程式伺服器控制框架。 |
| 產生或編輯圖片 | openai/gpt-image-2 | 可搭配 OPENAI_API_KEY 或 OpenAI Codex OAuth 使用。 |
| 透明背景圖片 | openai/gpt-image-1.5 | 使用 outputFormat=png 或 webp,並設定 openai.background=transparent。 |
命名對照
這些名稱相似,但不可互換:| 你看到的名稱 | 層級 | 含義 |
|---|---|---|
openai | 提供者前綴 | 直接 OpenAI Platform API 路由。 |
openai-codex | 提供者前綴 | 透過一般 OpenClaw PI 執行器使用的 OpenAI Codex OAuth/訂閱路由。 |
codex plugin | Plugin | 隨附的 OpenClaw plugin,提供原生 Codex 應用程式伺服器執行階段和 /codex 聊天控制。 |
agentRuntime.id: codex | 代理執行階段 | 對內嵌回合強制使用原生 Codex 應用程式伺服器控制框架。 |
/codex ... | 聊天指令集 | 從對話中繫結/控制 Codex 應用程式伺服器執行緒。 |
runtime: "acp", agentId: "codex" | ACP 工作階段路由 | 明確的備援路徑,透過 ACP/acpx 執行 Codex。 |
openai-codex/* 和 codex plugin。當你想透過 PI 使用 Codex OAuth,同時也想提供原生 /codex 聊天控制時,這是有效設定。openclaw doctor 會針對這個組合發出警告,讓你確認這是有意為之;它不會重寫設定。
GPT-5.5 可透過直接 OpenAI Platform API 金鑰存取和訂閱/OAuth 路由使用。使用
openai/gpt-5.5 取得直接 OPENAI_API_KEY 流量,使用 openai-codex/gpt-5.5 透過 PI 取得 Codex OAuth,或使用 openai/gpt-5.5 搭配 agentRuntime.id: "codex" 取得原生 Codex 應用程式伺服器控制框架。啟用 OpenAI plugin,或選擇
openai-codex/* 模型,並不會啟用隨附的 Codex 應用程式伺服器 plugin。OpenClaw 只會在你明確以 agentRuntime.id: "codex" 選擇原生 Codex 控制框架,或使用舊版 codex/* 模型參照時,啟用該 plugin。
如果隨附的 codex plugin 已啟用,但 openai-codex/* 仍透過 PI 解析,openclaw doctor 會發出警告並保持路由不變。OpenClaw 功能涵蓋範圍
| OpenAI 能力 | OpenClaw 介面 | 狀態 |
|---|---|---|
| 聊天 / Responses | openai/<model> 模型提供者 | 支援 |
| Codex 訂閱模型 | 使用 openai-codex OAuth 的 openai-codex/<model> | 支援 |
| Codex 應用程式伺服器控制框架 | 使用 agentRuntime.id: codex 的 openai/<model> | 支援 |
| 伺服器端網頁搜尋 | 原生 OpenAI Responses 工具 | 支援,當網頁搜尋已啟用且未釘選提供者時 |
| 圖片 | image_generate | 支援 |
| 影片 | video_generate | 支援 |
| 文字轉語音 | messages.tts.provider: "openai" / tts | 支援 |
| 批次語音轉文字 | tools.media.audio / 媒體理解 | 支援 |
| 串流語音轉文字 | Voice Call streaming.provider: "openai" | 支援 |
| 即時語音 | Voice Call realtime.provider: "openai" / Control UI Talk | 支援 |
| 嵌入 | 記憶嵌入提供者 | 支援 |
記憶嵌入
OpenClaw 可使用 OpenAI,或 OpenAI 相容的嵌入端點,為memory_search 建立索引和查詢嵌入:
memorySearch 底下設定 queryInputType 和 documentInputType。OpenClaw 會將它們作為提供者特定的 input_type 請求欄位轉送:查詢嵌入使用 queryInputType;已索引的記憶片段和批次索引使用 documentInputType。完整範例請參閱記憶設定參考。
開始使用
選擇偏好的驗證方法,並依照設定步驟操作。- API 金鑰(OpenAI Platform)
- Codex 訂閱
最適合: 直接 API 存取和依用量計費。
路由摘要
| 模型參照 | 執行階段設定 | 路由 | 驗證 |
|---|---|---|---|
openai/gpt-5.5 | omitted / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-mini | omitted / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.5 | agentRuntime.id: "codex" | Codex 應用程式伺服器控制框架 | Codex 應用程式伺服器 |
除非你明確強制使用 Codex 應用程式伺服器控制框架,否則
openai/* 是直接 OpenAI API 金鑰路由。使用 openai-codex/* 透過預設 PI 執行器取得 Codex OAuth,或使用 openai/gpt-5.5 搭配 agentRuntime.id: "codex" 進行原生 Codex 應用程式伺服器執行。設定範例
原生 Codex app-server 驗證
原生 Codex app-server harness 使用openai/* 模型參照加上
agentRuntime.id: "codex",但其驗證仍以帳戶為基礎。OpenClaw 會依下列順序選取驗證:
- 綁定至代理程式的明確 OpenClaw
openai-codex驗證設定檔。 - app-server 的既有帳戶,例如本機 Codex CLI ChatGPT 登入。
- 僅限本機 stdio app-server 啟動,當 app-server 回報沒有帳戶且仍需要
OpenAI 驗證時,使用
CODEX_API_KEY,接著使用OPENAI_API_KEY。
OPENAI_API_KEY 而被取代。環境 API key 後援僅是本機 stdio 無帳戶路徑;它不會傳送到 WebSocket app-server 連線。選取訂閱樣式的 Codex 設定檔時,OpenClaw 也會讓 CODEX_API_KEY 和 OPENAI_API_KEY
不進入產生的 stdio app-server 子程序,並透過 app-server login RPC 傳送所選認證。
圖片生成
隨附的openai Plugin 會透過 image_generate 工具註冊圖片生成。
它透過相同的 openai/gpt-image-2 模型參照,同時支援 OpenAI API key 圖片生成與 Codex OAuth 圖片生成。
| 能力 | OpenAI API key | Codex OAuth |
|---|---|---|
| 模型參照 | openai/gpt-image-2 | openai/gpt-image-2 |
| 驗證 | OPENAI_API_KEY | OpenAI Codex OAuth 登入 |
| 傳輸 | OpenAI Images API | Codex Responses 後端 |
| 每次請求最多圖片數 | 4 | 4 |
| 編輯模式 | 已啟用(最多 5 張參考圖片) | 已啟用(最多 5 張參考圖片) |
| 尺寸覆寫 | 支援,包含 2K/4K 尺寸 | 支援,包含 2K/4K 尺寸 |
| 長寬比 / 解析度 | 不轉送至 OpenAI Images API | 安全時會對應到支援的尺寸 |
請參閱圖片生成,了解共用工具參數、提供者選擇和容錯移轉行為。
gpt-image-2 是 OpenAI 文字轉圖片生成和圖片編輯的預設值。gpt-image-1.5、gpt-image-1 和 gpt-image-1-mini 仍可作為明確的模型覆寫使用。請使用 openai/gpt-image-1.5 取得透明背景
PNG/WebP 輸出;目前的 gpt-image-2 API 會拒絕
background: "transparent"。
對於透明背景請求,代理程式應呼叫 image_generate,並使用
model: "openai/gpt-image-1.5"、outputFormat: "png" 或 "webp",以及
background: "transparent";較舊的 openai.background 提供者選項仍會被接受。OpenClaw 也會保護公開 OpenAI 和
OpenAI Codex OAuth 路由,將預設 openai/gpt-image-2 透明請求重寫為 gpt-image-1.5;Azure 和自訂 OpenAI 相容端點會保留其已設定的部署/模型名稱。
相同設定也會暴露給無頭 CLI 執行:
openclaw infer image edit 使用相同的 --output-format 和 --background 旗標。
--openai-background 仍可作為 OpenAI 專用別名使用。
對於 Codex OAuth 安裝,請保留相同的 openai/gpt-image-2 參照。設定
openai-codex OAuth 設定檔時,OpenClaw 會解析該儲存的 OAuth 存取權杖,並透過 Codex Responses 後端傳送圖片請求。它不會先嘗試 OPENAI_API_KEY,也不會針對該請求靜默後援到 API key。當你想改用直接 OpenAI Images API 路由時,請明確設定 models.providers.openai,搭配 API key、自訂基底 URL 或 Azure 端點。
如果該自訂圖片端點位於受信任的 LAN/私人位址,也請設定
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此選擇加入設定,OpenClaw 會持續封鎖私人/內部 OpenAI 相容圖片端點。
生成:
影片生成
隨附的openai Plugin 會透過 video_generate 工具註冊影片生成。
| 能力 | 值 |
|---|---|
| 預設模型 | openai/sora-2 |
| 模式 | 文字轉影片、圖片轉影片、單一影片編輯 |
| 參考輸入 | 1 張圖片或 1 部影片 |
| 尺寸覆寫 | 支援 |
| 其他覆寫 | aspectRatio、resolution、audio、watermark 會被忽略並顯示工具警告 |
請參閱影片生成,了解共用工具參數、提供者選擇和容錯移轉行為。
GPT-5 提示貢獻
OpenClaw 會為跨提供者的 GPT-5 系列執行加入共用 GPT-5 提示貢獻。它依模型 id 套用,因此openai-codex/gpt-5.5、openai/gpt-5.5、openrouter/openai/gpt-5.5、opencode/gpt-5.5 和其他相容的 GPT-5 參照會收到相同覆蓋。較舊的 GPT-4.x 模型不會。
隨附的原生 Codex harness 會透過 Codex app-server 開發者指令使用相同的 GPT-5 行為與 Heartbeat 覆蓋,因此透過 agentRuntime.id: "codex" 強制執行的 openai/gpt-5.x 工作階段,即使 Codex 擁有其餘 harness 提示,也會保留相同的跟進與主動 Heartbeat 指引。
GPT-5 貢獻會為人格持續性、執行安全性、工具紀律、輸出形狀、完成檢查和驗證加入帶標籤的行為契約。通道專屬回覆與靜默訊息行為會保留在共用 OpenClaw 系統提示與輸出傳遞政策中。對於相符模型,GPT-5 指引一律啟用。友善互動風格層是獨立且可設定的。
| 值 | 效果 |
|---|---|
"friendly"(預設) | 啟用友善互動風格層 |
"on" | "friendly" 的別名 |
"off" | 僅停用友善風格層 |
- 設定
- CLI
當未設定共用的
agents.defaults.promptOverlays.gpt5.personality 設定時,仍會讀取舊版 plugins.entries.openai.config.personality 作為相容性後援。語音與語音辨識
語音合成 (TTS)
語音合成 (TTS)
隨附的
可用模型:
openai Plugin 會為 messages.tts 介面註冊語音合成。| 設定 | 設定路徑 | 預設值 |
|---|---|---|
| 模型 | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| 語音 | messages.tts.providers.openai.voice | coral |
| 速度 | messages.tts.providers.openai.speed | (未設定) |
| 指令 | messages.tts.providers.openai.instructions | (未設定,僅限 gpt-4o-mini-tts) |
| 格式 | messages.tts.providers.openai.responseFormat | 語音記事使用 opus,檔案使用 mp3 |
| API key | messages.tts.providers.openai.apiKey | 後援至 OPENAI_API_KEY |
| 基底 URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts、tts-1、tts-1-hd。可用語音:alloy、ash、ballad、cedar、coral、echo、fable、juniper、marin、onyx、nova、sage、shimmer、verse。設定
OPENAI_TTS_BASE_URL 可覆寫 TTS 基底 URL,而不影響聊天 API 端點。語音轉文字
語音轉文字
隨附的 語言與提示提示會在由共用音訊媒體設定或逐次呼叫的轉錄請求提供時轉送至 OpenAI。
openai Plugin 會透過
OpenClaw 的媒體理解轉錄介面註冊批次語音轉文字。- 預設模型:
gpt-4o-transcribe - 端點:OpenAI REST
/v1/audio/transcriptions - 輸入路徑:multipart 音訊檔案上傳
- 由 OpenClaw 在任何輸入音訊轉錄使用
tools.media.audio的地方支援,包括 Discord 語音頻道片段和通道音訊附件
即時轉錄
即時轉錄
內建的
openai Plugin 會為 Voice Call Plugin 註冊即時轉錄。| 設定 | 設定路徑 | 預設值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| 語言 | ...openai.language | (未設定) |
| 提示 | ...openai.prompt | (未設定) |
| 靜音持續時間 | ...openai.silenceDurationMs | 800 |
| VAD 閾值 | ...openai.vadThreshold | 0.5 |
| API 金鑰 | ...openai.apiKey | 回退至 OPENAI_API_KEY |
使用 WebSocket 連線至
wss://api.openai.com/v1/realtime,搭配 G.711 u-law(g711_ulaw / audio/pcmu)音訊。此串流供應器用於 Voice Call 的即時轉錄路徑;Discord 語音目前會錄製短片段,並改用批次 tools.media.audio 轉錄路徑。即時語音
即時語音
內建的
openai Plugin 會為 Voice Call Plugin 註冊即時語音。| 設定 | 設定路徑 | 預設值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime-1.5 |
| 語音 | ...openai.voice | alloy |
| 溫度 | ...openai.temperature | 0.8 |
| VAD 閾值 | ...openai.vadThreshold | 0.5 |
| 靜音持續時間 | ...openai.silenceDurationMs | 500 |
| API 金鑰 | ...openai.apiKey | 回退至 OPENAI_API_KEY |
透過
azureEndpoint 和 azureDeployment 設定鍵支援後端即時橋接的 Azure OpenAI。支援雙向工具呼叫。使用 G.711 u-law 音訊格式。Control UI Talk 會使用 OpenAI 瀏覽器即時工作階段,搭配 Gateway 簽發的
暫時性用戶端密鑰,並對 OpenAI Realtime API 進行直接的瀏覽器 WebRTC SDP 交換。維護者即時驗證可使用
OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts;
OpenAI 端會在 Node 中簽發用戶端密鑰,使用假麥克風媒體產生瀏覽器 SDP offer,
將其傳送至 OpenAI,並套用 SDP answer
而不記錄密鑰。Azure OpenAI 端點
內建的openai 供應器可以透過覆寫基底 URL,將影像
生成目標指向 Azure OpenAI 資源。在影像生成路徑上,OpenClaw
會偵測 models.providers.openai.baseUrl 上的 Azure 主機名稱,並自動切換至
Azure 的請求形狀。
即時語音使用獨立的設定路徑
(
plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint)
且不受 models.providers.openai.baseUrl 影響。請參閱 語音與語音 下的 即時
語音 手風琴區塊以了解其 Azure
設定。- 你已有 Azure OpenAI 訂閱、配額或企業協議
- 你需要 Azure 提供的區域資料駐留或合規控制
- 你想讓流量保留在既有的 Azure 租用戶內
設定
若要透過內建的openai 供應器使用 Azure 影像生成,請將
models.providers.openai.baseUrl 指向你的 Azure 資源,並將 apiKey 設為
Azure OpenAI 金鑰(而非 OpenAI Platform 金鑰):
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
- 傳送
api-key標頭,而不是Authorization: Bearer - 使用部署範圍路徑(
/openai/deployments/{deployment}/...) - 在每個請求後附加
?api-version=... - 對 Azure 影像生成呼叫使用 600 秒的預設請求逾時。
逐次呼叫的
timeoutMs值仍會覆寫此預設值。
openai 供應器影像生成路徑的 Azure 路由需要
OpenClaw 2026.4.22 或更新版本。較早版本會將任何自訂
openai.baseUrl 視為公開 OpenAI 端點,並且會在 Azure
影像部署上失敗。API 版本
設定AZURE_OPENAI_API_VERSION 以釘選 Azure 影像生成路徑的特定 Azure 預覽版或 GA 版本:
2024-12-01-preview。
模型名稱即部署名稱
Azure OpenAI 會將模型繫結至部署。對於透過內建openai 供應器
路由的 Azure 影像生成請求,OpenClaw 中的 model 欄位
必須是你在 Azure 入口網站中設定的 Azure 部署名稱,而不是
公開 OpenAI 模型 ID。
如果你建立名為 gpt-image-2-prod 且提供 gpt-image-2 的部署:
openai 供應器路由的影像生成呼叫。
區域可用性
Azure 影像生成目前僅在部分區域 可用(例如eastus2、swedencentral、polandcentral、westus3、
uaenorth)。建立
部署前,請檢查 Microsoft 目前的區域清單,並確認你的區域提供特定模型。
參數差異
Azure OpenAI 和公開 OpenAI 不一定接受相同的影像參數。 Azure 可能會拒絕公開 OpenAI 允許的選項(例如gpt-image-2 上的某些 background 值),或只在特定模型
版本上公開這些選項。這些差異來自 Azure 與底層模型,而非
OpenClaw。如果 Azure 請求因驗證錯誤而失敗,請在
Azure 入口網站中檢查你的特定部署與 API 版本支援的
參數集。
Azure OpenAI 使用原生傳輸和相容行為,但不會接收
OpenClaw 的隱藏歸因標頭 — 請參閱 進階設定 下的 原生與 OpenAI 相容
路由 手風琴區塊。對於 Azure 上的聊天或 Responses 流量(超出影像生成),請使用
上線流程或專用的 Azure 供應器設定 — 單獨的
openai.baseUrl
不會套用 Azure API/驗證形狀。另有
azure-openai-responses/* 供應器;請參閱
下方的伺服器端 Compaction 手風琴區塊。進階設定
傳輸(WebSocket 與 SSE)
傳輸(WebSocket 與 SSE)
OpenClaw 對
相關 OpenAI 文件:
openai/* 和 openai-codex/* 都使用 WebSocket 優先,並以 SSE 回退("auto")。在 "auto" 模式中,OpenClaw 會:- 在回退至 SSE 前重試一次早期 WebSocket 失敗
- 失敗後,將 WebSocket 標記為降級約 60 秒,並在冷卻期間使用 SSE
- 附加穩定的工作階段與回合身分標頭,以支援重試與重新連線
- 在傳輸變體之間正規化用量計數器(
input_tokens/prompt_tokens)
| 值 | 行為 |
|---|---|
"auto"(預設) | WebSocket 優先,SSE 回退 |
"sse" | 僅強制使用 SSE |
"websocket" | 僅強制使用 WebSocket |
WebSocket 暖機
WebSocket 暖機
OpenClaw 預設為
openai/* 和 openai-codex/* 啟用 WebSocket 暖機,以降低第一回合延遲。快速模式
快速模式
OpenClaw 為
openai/* 和 openai-codex/* 公開共用的快速模式切換:- 聊天/UI:
/fast status|on|off - 設定:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority")。既有的 service_tier 值會保留,且快速模式不會重寫 reasoning 或 text.verbosity。工作階段覆寫優先於設定。在 Sessions UI 中清除工作階段覆寫,會讓工作階段回到已設定的預設值。
優先處理(service_tier)
優先處理(service_tier)
OpenAI 的 API 透過 支援的值:
service_tier 公開優先處理。在 OpenClaw 中為每個模型設定:auto、default、flex、priority。伺服器端 Compaction(Responses API)
伺服器端 Compaction(Responses API)
對於直接 OpenAI Responses 模型(
api.openai.com 上的 openai/*),OpenAI Plugin 的 Pi-harness 串流包裝器會自動啟用伺服器端 Compaction:- 強制
store: true(除非模型相容性設定supportsStore: false) - 注入
context_management: [{ type: "compaction", compact_threshold: ... }] - 預設
compact_threshold:contextWindow的 70%(或在不可用時為80000)
agents.defaults.agentRuntime.id 另行設定。- 明確啟用
- 自訂臨界值
- 停用
適用於 Azure OpenAI Responses 等相容端點:
responsesServerCompaction 只控制 context_management 注入。直接的 OpenAI Responses 模型仍會強制使用 store: true,除非 compat 設定 supportsStore: false。嚴格代理式 GPT 模式
嚴格代理式 GPT 模式
對於在 使用
openai/* 上執行的 GPT-5 系列,OpenClaw 可以使用更嚴格的嵌入式執行合約:strict-agentic 時,OpenClaw:- 當有可用的工具動作時,不再將只有計畫的回合視為成功進展
- 使用立即行動導引重試該回合
- 針對實質工作自動啟用
update_plan - 如果模型持續規劃而不行動,會顯示明確的受阻狀態
僅限 OpenAI 和 Codex GPT-5 系列執行。其他供應商和較舊的模型系列會保留預設行為。
原生與 OpenAI 相容路由
原生與 OpenAI 相容路由
OpenClaw 會以不同於通用 OpenAI 相容
/v1 代理的方式處理直接的 OpenAI、Codex 和 Azure OpenAI 端點:原生路由(openai/*、Azure OpenAI):- 只針對支援 OpenAI
noneeffort 的模型保留reasoning: { effort: "none" } - 對於拒絕
reasoning.effort: "none"的模型或代理,省略停用的推理 - 預設將工具結構描述設為嚴格模式
- 只在已驗證的原生主機上附加隱藏的歸因標頭
- 保留僅適用於 OpenAI 的請求塑形(
service_tier、store、reasoning-compat、提示快取提示)
- 使用較寬鬆的相容行為
- 從非原生
openai-completionspayload 中移除 Completionsstore - 接受進階
params.extra_body/params.extraBody直通 JSON,供 OpenAI 相容的 Completions 代理使用 - 接受
params.chat_template_kwargs,供 vLLM 等 OpenAI 相容的 Completions 代理使用 - 不強制使用嚴格工具結構描述或僅限原生的標頭
相關
模型選擇
選擇供應商、模型參照和容錯移轉行為。
圖片生成
共用圖片工具參數和供應商選擇。
影片生成
共用影片工具參數和供應商選擇。
OAuth 和驗證
驗證詳細資訊和憑證重用規則。