跳轉到主要內容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI 提供 GPT 模型的開發者 API,而 Codex 也可透過 OpenAI 的 Codex 用戶端,作為 ChatGPT 方案的程式碼撰寫代理使用。OpenClaw 會將這些介面分開,讓設定保持可預測。 OpenClaw 支援三種 OpenAI 系列路由。模型前綴會選擇提供者/驗證路由;另一個獨立的執行階段設定會選擇由誰執行內嵌代理迴圈:
  • API 金鑰 — 直接使用 OpenAI Platform,依用量計費(openai/* 模型)
  • 透過 PI 使用 Codex 訂閱 — 以 ChatGPT/Codex 登入並使用訂閱存取權(openai-codex/* 模型)
  • Codex 應用程式伺服器控制框架 — 原生 Codex 應用程式伺服器執行(openai/* 模型加上 agents.defaults.agentRuntime.id: "codex"
OpenAI 明確支援在外部工具與 OpenClaw 這類工作流程中使用訂閱 OAuth。 提供者、模型、執行階段和頻道是分開的層級。如果這些標籤被混在一起,請先閱讀 代理執行階段,再變更設定。

快速選擇

目標使用備註
直接以 API 金鑰計費openai/gpt-5.5設定 OPENAI_API_KEY,或執行 OpenAI API 金鑰初始設定。
使用 ChatGPT/Codex 訂閱驗證的 GPT-5.5openai-codex/gpt-5.5Codex OAuth 的預設 PI 路由。訂閱設定的首選。
使用原生 Codex 應用程式伺服器行為的 GPT-5.5openai/gpt-5.5 加上 agentRuntime.id: "codex"對該模型參照強制使用 Codex 應用程式伺服器控制框架。
產生或編輯圖片openai/gpt-image-2可搭配 OPENAI_API_KEY 或 OpenAI Codex OAuth 使用。
透明背景圖片openai/gpt-image-1.5使用 outputFormat=pngwebp,並設定 openai.background=transparent

命名對照

這些名稱相似,但不可互換:
你看到的名稱層級含義
openai提供者前綴直接 OpenAI Platform API 路由。
openai-codex提供者前綴透過一般 OpenClaw PI 執行器使用的 OpenAI Codex OAuth/訂閱路由。
codex pluginPlugin隨附的 OpenClaw plugin,提供原生 Codex 應用程式伺服器執行階段和 /codex 聊天控制。
agentRuntime.id: codex代理執行階段對內嵌回合強制使用原生 Codex 應用程式伺服器控制框架。
/codex ...聊天指令集從對話中繫結/控制 Codex 應用程式伺服器執行緒。
runtime: "acp", agentId: "codex"ACP 工作階段路由明確的備援路徑,透過 ACP/acpx 執行 Codex。
這表示設定可以有意同時包含 openai-codex/*codex plugin。當你想透過 PI 使用 Codex OAuth,同時也想提供原生 /codex 聊天控制時,這是有效設定。openclaw doctor 會針對這個組合發出警告,讓你確認這是有意為之;它不會重寫設定。
GPT-5.5 可透過直接 OpenAI Platform API 金鑰存取和訂閱/OAuth 路由使用。使用 openai/gpt-5.5 取得直接 OPENAI_API_KEY 流量,使用 openai-codex/gpt-5.5 透過 PI 取得 Codex OAuth,或使用 openai/gpt-5.5 搭配 agentRuntime.id: "codex" 取得原生 Codex 應用程式伺服器控制框架。
啟用 OpenAI plugin,或選擇 openai-codex/* 模型,並不會啟用隨附的 Codex 應用程式伺服器 plugin。OpenClaw 只會在你明確以 agentRuntime.id: "codex" 選擇原生 Codex 控制框架,或使用舊版 codex/* 模型參照時,啟用該 plugin。 如果隨附的 codex plugin 已啟用,但 openai-codex/* 仍透過 PI 解析,openclaw doctor 會發出警告並保持路由不變。

OpenClaw 功能涵蓋範圍

OpenAI 能力OpenClaw 介面狀態
聊天 / Responsesopenai/<model> 模型提供者支援
Codex 訂閱模型使用 openai-codex OAuth 的 openai-codex/<model>支援
Codex 應用程式伺服器控制框架使用 agentRuntime.id: codexopenai/<model>支援
伺服器端網頁搜尋原生 OpenAI Responses 工具支援,當網頁搜尋已啟用且未釘選提供者時
圖片image_generate支援
影片video_generate支援
文字轉語音messages.tts.provider: "openai" / tts支援
批次語音轉文字tools.media.audio / 媒體理解支援
串流語音轉文字Voice Call streaming.provider: "openai"支援
即時語音Voice Call realtime.provider: "openai" / Control UI Talk支援
嵌入記憶嵌入提供者支援

記憶嵌入

OpenClaw 可使用 OpenAI,或 OpenAI 相容的嵌入端點,為 memory_search 建立索引和查詢嵌入:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
對於需要非對稱嵌入標籤的 OpenAI 相容端點,請在 memorySearch 底下設定 queryInputTypedocumentInputType。OpenClaw 會將它們作為提供者特定的 input_type 請求欄位轉送:查詢嵌入使用 queryInputType;已索引的記憶片段和批次索引使用 documentInputType。完整範例請參閱記憶設定參考

開始使用

選擇偏好的驗證方法,並依照設定步驟操作。
最適合: 直接 API 存取和依用量計費。
1

取得你的 API 金鑰

OpenAI Platform 儀表板 建立或複製 API 金鑰。
2

執行初始設定

openclaw onboard --auth-choice openai-api-key
或直接傳入金鑰:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

確認模型可用

openclaw models list --provider openai

路由摘要

模型參照執行階段設定路由驗證
openai/gpt-5.5omitted / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-miniomitted / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.5agentRuntime.id: "codex"Codex 應用程式伺服器控制框架Codex 應用程式伺服器
除非你明確強制使用 Codex 應用程式伺服器控制框架,否則 openai/* 是直接 OpenAI API 金鑰路由。使用 openai-codex/* 透過預設 PI 執行器取得 Codex OAuth,或使用 openai/gpt-5.5 搭配 agentRuntime.id: "codex" 進行原生 Codex 應用程式伺服器執行。

設定範例

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenClaw 不會公開 openai/gpt-5.3-codex-spark。即時 OpenAI API 請求會拒絕該模型,目前的 Codex 型錄也不會公開它。

原生 Codex app-server 驗證

原生 Codex app-server harness 使用 openai/* 模型參照加上 agentRuntime.id: "codex",但其驗證仍以帳戶為基礎。OpenClaw 會依下列順序選取驗證:
  1. 綁定至代理程式的明確 OpenClaw openai-codex 驗證設定檔。
  2. app-server 的既有帳戶,例如本機 Codex CLI ChatGPT 登入。
  3. 僅限本機 stdio app-server 啟動,當 app-server 回報沒有帳戶且仍需要 OpenAI 驗證時,使用 CODEX_API_KEY,接著使用 OPENAI_API_KEY
這表示本機 ChatGPT/Codex 訂閱登入不會只因 gateway 程序也有供直接 OpenAI 模型或嵌入使用的 OPENAI_API_KEY 而被取代。環境 API key 後援僅是本機 stdio 無帳戶路徑;它不會傳送到 WebSocket app-server 連線。選取訂閱樣式的 Codex 設定檔時,OpenClaw 也會讓 CODEX_API_KEYOPENAI_API_KEY 不進入產生的 stdio app-server 子程序,並透過 app-server login RPC 傳送所選認證。

圖片生成

隨附的 openai Plugin 會透過 image_generate 工具註冊圖片生成。 它透過相同的 openai/gpt-image-2 模型參照,同時支援 OpenAI API key 圖片生成與 Codex OAuth 圖片生成。
能力OpenAI API keyCodex OAuth
模型參照openai/gpt-image-2openai/gpt-image-2
驗證OPENAI_API_KEYOpenAI Codex OAuth 登入
傳輸OpenAI Images APICodex Responses 後端
每次請求最多圖片數44
編輯模式已啟用(最多 5 張參考圖片)已啟用(最多 5 張參考圖片)
尺寸覆寫支援,包含 2K/4K 尺寸支援,包含 2K/4K 尺寸
長寬比 / 解析度不轉送至 OpenAI Images API安全時會對應到支援的尺寸
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
請參閱圖片生成,了解共用工具參數、提供者選擇和容錯移轉行為。
gpt-image-2 是 OpenAI 文字轉圖片生成和圖片編輯的預設值。gpt-image-1.5gpt-image-1gpt-image-1-mini 仍可作為明確的模型覆寫使用。請使用 openai/gpt-image-1.5 取得透明背景 PNG/WebP 輸出;目前的 gpt-image-2 API 會拒絕 background: "transparent" 對於透明背景請求,代理程式應呼叫 image_generate,並使用 model: "openai/gpt-image-1.5"outputFormat: "png""webp",以及 background: "transparent";較舊的 openai.background 提供者選項仍會被接受。OpenClaw 也會保護公開 OpenAI 和 OpenAI Codex OAuth 路由,將預設 openai/gpt-image-2 透明請求重寫為 gpt-image-1.5;Azure 和自訂 OpenAI 相容端點會保留其已設定的部署/模型名稱。 相同設定也會暴露給無頭 CLI 執行:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "A simple red circle sticker on a transparent background" \
  --json
從輸入檔案開始時,請搭配 openclaw infer image edit 使用相同的 --output-format--background 旗標。 --openai-background 仍可作為 OpenAI 專用別名使用。 對於 Codex OAuth 安裝,請保留相同的 openai/gpt-image-2 參照。設定 openai-codex OAuth 設定檔時,OpenClaw 會解析該儲存的 OAuth 存取權杖,並透過 Codex Responses 後端傳送圖片請求。它不會先嘗試 OPENAI_API_KEY,也不會針對該請求靜默後援到 API key。當你想改用直接 OpenAI Images API 路由時,請明確設定 models.providers.openai,搭配 API key、自訂基底 URL 或 Azure 端點。 如果該自訂圖片端點位於受信任的 LAN/私人位址,也請設定 browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此選擇加入設定,OpenClaw 會持續封鎖私人/內部 OpenAI 相容圖片端點。 生成:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
生成透明 PNG:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
編輯:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536

影片生成

隨附的 openai Plugin 會透過 video_generate 工具註冊影片生成。
能力
預設模型openai/sora-2
模式文字轉影片、圖片轉影片、單一影片編輯
參考輸入1 張圖片或 1 部影片
尺寸覆寫支援
其他覆寫aspectRatioresolutionaudiowatermark 會被忽略並顯示工具警告
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
請參閱影片生成,了解共用工具參數、提供者選擇和容錯移轉行為。

GPT-5 提示貢獻

OpenClaw 會為跨提供者的 GPT-5 系列執行加入共用 GPT-5 提示貢獻。它依模型 id 套用,因此 openai-codex/gpt-5.5openai/gpt-5.5openrouter/openai/gpt-5.5opencode/gpt-5.5 和其他相容的 GPT-5 參照會收到相同覆蓋。較舊的 GPT-4.x 模型不會。 隨附的原生 Codex harness 會透過 Codex app-server 開發者指令使用相同的 GPT-5 行為與 Heartbeat 覆蓋,因此透過 agentRuntime.id: "codex" 強制執行的 openai/gpt-5.x 工作階段,即使 Codex 擁有其餘 harness 提示,也會保留相同的跟進與主動 Heartbeat 指引。 GPT-5 貢獻會為人格持續性、執行安全性、工具紀律、輸出形狀、完成檢查和驗證加入帶標籤的行為契約。通道專屬回覆與靜默訊息行為會保留在共用 OpenClaw 系統提示與輸出傳遞政策中。對於相符模型,GPT-5 指引一律啟用。友善互動風格層是獨立且可設定的。
效果
"friendly"(預設)啟用友善互動風格層
"on""friendly" 的別名
"off"僅停用友善風格層
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
值在執行階段不區分大小寫,因此 "Off""off" 都會停用友善風格層。
當未設定共用的 agents.defaults.promptOverlays.gpt5.personality 設定時,仍會讀取舊版 plugins.entries.openai.config.personality 作為相容性後援。

語音與語音辨識

隨附的 openai Plugin 會為 messages.tts 介面註冊語音合成。
設定設定路徑預設值
模型messages.tts.providers.openai.modelgpt-4o-mini-tts
語音messages.tts.providers.openai.voicecoral
速度messages.tts.providers.openai.speed(未設定)
指令messages.tts.providers.openai.instructions(未設定,僅限 gpt-4o-mini-tts
格式messages.tts.providers.openai.responseFormat語音記事使用 opus,檔案使用 mp3
API keymessages.tts.providers.openai.apiKey後援至 OPENAI_API_KEY
基底 URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
可用模型:gpt-4o-mini-ttstts-1tts-1-hd。可用語音:alloyashballadcedarcoralechofablejunipermarinonyxnovasageshimmerverse
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
設定 OPENAI_TTS_BASE_URL 可覆寫 TTS 基底 URL,而不影響聊天 API 端點。
隨附的 openai Plugin 會透過 OpenClaw 的媒體理解轉錄介面註冊批次語音轉文字。
  • 預設模型:gpt-4o-transcribe
  • 端點:OpenAI REST /v1/audio/transcriptions
  • 輸入路徑:multipart 音訊檔案上傳
  • 由 OpenClaw 在任何輸入音訊轉錄使用 tools.media.audio 的地方支援,包括 Discord 語音頻道片段和通道音訊附件
若要強制對傳入音訊轉錄使用 OpenAI:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
語言與提示提示會在由共用音訊媒體設定或逐次呼叫的轉錄請求提供時轉送至 OpenAI。
內建的 openai Plugin 會為 Voice Call Plugin 註冊即時轉錄。
設定設定路徑預設值
模型plugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
語言...openai.language(未設定)
提示...openai.prompt(未設定)
靜音持續時間...openai.silenceDurationMs800
VAD 閾值...openai.vadThreshold0.5
API 金鑰...openai.apiKey回退至 OPENAI_API_KEY
使用 WebSocket 連線至 wss://api.openai.com/v1/realtime,搭配 G.711 u-law(g711_ulaw / audio/pcmu)音訊。此串流供應器用於 Voice Call 的即時轉錄路徑;Discord 語音目前會錄製短片段,並改用批次 tools.media.audio 轉錄路徑。
內建的 openai Plugin 會為 Voice Call Plugin 註冊即時語音。
設定設定路徑預設值
模型plugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-1.5
語音...openai.voicealloy
溫度...openai.temperature0.8
VAD 閾值...openai.vadThreshold0.5
靜音持續時間...openai.silenceDurationMs500
API 金鑰...openai.apiKey回退至 OPENAI_API_KEY
透過 azureEndpointazureDeployment 設定鍵支援後端即時橋接的 Azure OpenAI。支援雙向工具呼叫。使用 G.711 u-law 音訊格式。
Control UI Talk 會使用 OpenAI 瀏覽器即時工作階段,搭配 Gateway 簽發的 暫時性用戶端密鑰,並對 OpenAI Realtime API 進行直接的瀏覽器 WebRTC SDP 交換。維護者即時驗證可使用 OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts; OpenAI 端會在 Node 中簽發用戶端密鑰,使用假麥克風媒體產生瀏覽器 SDP offer, 將其傳送至 OpenAI,並套用 SDP answer 而不記錄密鑰。

Azure OpenAI 端點

內建的 openai 供應器可以透過覆寫基底 URL,將影像 生成目標指向 Azure OpenAI 資源。在影像生成路徑上,OpenClaw 會偵測 models.providers.openai.baseUrl 上的 Azure 主機名稱,並自動切換至 Azure 的請求形狀。
即時語音使用獨立的設定路徑 (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint) 且不受 models.providers.openai.baseUrl 影響。請參閱 語音與語音 下的 即時 語音 手風琴區塊以了解其 Azure 設定。
在以下情況使用 Azure OpenAI:
  • 你已有 Azure OpenAI 訂閱、配額或企業協議
  • 你需要 Azure 提供的區域資料駐留或合規控制
  • 你想讓流量保留在既有的 Azure 租用戶內

設定

若要透過內建的 openai 供應器使用 Azure 影像生成,請將 models.providers.openai.baseUrl 指向你的 Azure 資源,並將 apiKey 設為 Azure OpenAI 金鑰(而非 OpenAI Platform 金鑰):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw 會針對 Azure 影像生成 路由識別這些 Azure 主機後綴:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
對於已識別 Azure 主機上的影像生成請求,OpenClaw 會:
  • 傳送 api-key 標頭,而不是 Authorization: Bearer
  • 使用部署範圍路徑(/openai/deployments/{deployment}/...
  • 在每個請求後附加 ?api-version=...
  • 對 Azure 影像生成呼叫使用 600 秒的預設請求逾時。 逐次呼叫的 timeoutMs 值仍會覆寫此預設值。
其他基底 URL(公開 OpenAI、OpenAI 相容代理)會保留標準的 OpenAI 影像請求形狀。
openai 供應器影像生成路徑的 Azure 路由需要 OpenClaw 2026.4.22 或更新版本。較早版本會將任何自訂 openai.baseUrl 視為公開 OpenAI 端點,並且會在 Azure 影像部署上失敗。

API 版本

設定 AZURE_OPENAI_API_VERSION 以釘選 Azure 影像生成路徑的特定 Azure 預覽版或 GA 版本:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
當此變數未設定時,預設值為 2024-12-01-preview

模型名稱即部署名稱

Azure OpenAI 會將模型繫結至部署。對於透過內建 openai 供應器 路由的 Azure 影像生成請求,OpenClaw 中的 model 欄位 必須是你在 Azure 入口網站中設定的 Azure 部署名稱,而不是 公開 OpenAI 模型 ID。 如果你建立名為 gpt-image-2-prod 且提供 gpt-image-2 的部署:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
相同的部署名稱規則也適用於透過 內建 openai 供應器路由的影像生成呼叫。

區域可用性

Azure 影像生成目前僅在部分區域 可用(例如 eastus2swedencentralpolandcentralwestus3uaenorth)。建立 部署前,請檢查 Microsoft 目前的區域清單,並確認你的區域提供特定模型。

參數差異

Azure OpenAI 和公開 OpenAI 不一定接受相同的影像參數。 Azure 可能會拒絕公開 OpenAI 允許的選項(例如 gpt-image-2 上的某些 background 值),或只在特定模型 版本上公開這些選項。這些差異來自 Azure 與底層模型,而非 OpenClaw。如果 Azure 請求因驗證錯誤而失敗,請在 Azure 入口網站中檢查你的特定部署與 API 版本支援的 參數集。
Azure OpenAI 使用原生傳輸和相容行為,但不會接收 OpenClaw 的隱藏歸因標頭 — 請參閱 進階設定 下的 原生與 OpenAI 相容 路由 手風琴區塊。對於 Azure 上的聊天或 Responses 流量(超出影像生成),請使用 上線流程或專用的 Azure 供應器設定 — 單獨的 openai.baseUrl 不會套用 Azure API/驗證形狀。另有 azure-openai-responses/* 供應器;請參閱 下方的伺服器端 Compaction 手風琴區塊。

進階設定

OpenClaw 對 openai/*openai-codex/* 都使用 WebSocket 優先,並以 SSE 回退("auto")。"auto" 模式中,OpenClaw 會:
  • 在回退至 SSE 前重試一次早期 WebSocket 失敗
  • 失敗後,將 WebSocket 標記為降級約 60 秒,並在冷卻期間使用 SSE
  • 附加穩定的工作階段與回合身分標頭,以支援重試與重新連線
  • 在傳輸變體之間正規化用量計數器(input_tokens / prompt_tokens
行為
"auto"(預設)WebSocket 優先,SSE 回退
"sse"僅強制使用 SSE
"websocket"僅強制使用 WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
        "openai-codex/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
相關 OpenAI 文件:
OpenClaw 預設為 openai/*openai-codex/* 啟用 WebSocket 暖機,以降低第一回合延遲。
// Disable warm-up
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw 為 openai/*openai-codex/* 公開共用的快速模式切換:
  • 聊天/UI: /fast status|on|off
  • 設定: agents.defaults.models["<provider>/<model>"].params.fastMode
啟用時,OpenClaw 會將快速模式對應至 OpenAI 優先處理(service_tier = "priority")。既有的 service_tier 值會保留,且快速模式不會重寫 reasoningtext.verbosity
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
工作階段覆寫優先於設定。在 Sessions UI 中清除工作階段覆寫,會讓工作階段回到已設定的預設值。
OpenAI 的 API 透過 service_tier 公開優先處理。在 OpenClaw 中為每個模型設定:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
支援的值:autodefaultflexpriority
serviceTier 只會轉送至原生 OpenAI 端點(api.openai.com)和原生 Codex 端點(chatgpt.com/backend-api)。如果你透過代理路由任一供應器,OpenClaw 會讓 service_tier 保持不變。
對於直接 OpenAI Responses 模型(api.openai.com 上的 openai/*),OpenAI Plugin 的 Pi-harness 串流包裝器會自動啟用伺服器端 Compaction:
  • 強制 store: true(除非模型相容性設定 supportsStore: false
  • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]
  • 預設 compact_thresholdcontextWindow 的 70%(或在不可用時為 80000
這適用於內建 Pi harness 路徑,以及嵌入式執行使用的 OpenAI 供應器 hook。原生 Codex 應用伺服器 harness 會透過 Codex 管理自己的上下文,並使用 agents.defaults.agentRuntime.id 另行設定。
適用於 Azure OpenAI Responses 等相容端點:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction 只控制 context_management 注入。直接的 OpenAI Responses 模型仍會強制使用 store: true,除非 compat 設定 supportsStore: false
對於在 openai/* 上執行的 GPT-5 系列,OpenClaw 可以使用更嚴格的嵌入式執行合約:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
使用 strict-agentic 時,OpenClaw:
  • 當有可用的工具動作時,不再將只有計畫的回合視為成功進展
  • 使用立即行動導引重試該回合
  • 針對實質工作自動啟用 update_plan
  • 如果模型持續規劃而不行動,會顯示明確的受阻狀態
僅限 OpenAI 和 Codex GPT-5 系列執行。其他供應商和較舊的模型系列會保留預設行為。
OpenClaw 會以不同於通用 OpenAI 相容 /v1 代理的方式處理直接的 OpenAI、Codex 和 Azure OpenAI 端點:原生路由openai/*、Azure OpenAI):
  • 只針對支援 OpenAI none effort 的模型保留 reasoning: { effort: "none" }
  • 對於拒絕 reasoning.effort: "none" 的模型或代理,省略停用的推理
  • 預設將工具結構描述設為嚴格模式
  • 只在已驗證的原生主機上附加隱藏的歸因標頭
  • 保留僅適用於 OpenAI 的請求塑形(service_tierstore、reasoning-compat、提示快取提示)
代理/相容路由:
  • 使用較寬鬆的相容行為
  • 從非原生 openai-completions payload 中移除 Completions store
  • 接受進階 params.extra_body/params.extraBody 直通 JSON,供 OpenAI 相容的 Completions 代理使用
  • 接受 params.chat_template_kwargs,供 vLLM 等 OpenAI 相容的 Completions 代理使用
  • 不強制使用嚴格工具結構描述或僅限原生的標頭
Azure OpenAI 使用原生傳輸和相容行為,但不會收到隱藏的歸因標頭。

相關

模型選擇

選擇供應商、模型參照和容錯移轉行為。

圖片生成

共用圖片工具參數和供應商選擇。

影片生成

共用影片工具參數和供應商選擇。

OAuth 和驗證

驗證詳細資訊和憑證重用規則。