跳转到主要内容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI 提供面向 GPT 模型的开发者 API,Codex 也可通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案中的编码智能体使用。OpenClaw 将这些使用面保持分离,确保配置保持可预测。 OpenClaw 支持三种 OpenAI 系列路由。大多数想要 Codex 行为的 ChatGPT/Codex 订阅用户应使用原生 Codex 应用服务器运行时。模型前缀选择提供商/模型名称;单独的运行时设置选择由谁执行嵌入式 Agent loop:
  • API key - 使用按量计费的 OpenAI Platform 直接访问(openai/* 模型)
  • 带原生 Codex 运行时的 Codex 订阅 - ChatGPT/Codex 登录加 Codex 应用服务器执行(openai/* 模型加 agents.defaults.agentRuntime.id: "codex"
  • 通过 PI 的 Codex 订阅 - 使用普通 OpenClaw PI 运行器的 ChatGPT/Codex 登录(openai-codex/* 模型)
OpenAI 明确支持在外部工具和 OpenClaw 这类工作流中使用订阅 OAuth。 提供商、模型、运行时和渠道是彼此独立的层。如果这些标签混在一起,请先阅读 Agent Runtimes,再更改配置。

快速选择

目标使用说明
带原生 Codex 运行时的 ChatGPT/Codex 订阅openai/gpt-5.5agentRuntime.id: "codex"推荐给大多数用户的 Codex 设置。使用 openai-codex 凭证登录。
直接 API key 计费openai/gpt-5.5设置 OPENAI_API_KEY 或运行 OpenAI API key 新手引导。
通过 PI 使用 ChatGPT/Codex 订阅凭证openai-codex/gpt-5.5仅在你有意使用普通 PI 运行器时使用。
图像生成或编辑openai/gpt-image-2可与 OPENAI_API_KEY 或 OpenAI Codex OAuth 配合使用。
透明背景图像openai/gpt-image-1.5使用 outputFormat=pngwebp,并设置 openai.background=transparent

命名映射

这些名称相似,但不可互换:
你看到的名称含义
openai提供商前缀直接 OpenAI Platform API 路由。
openai-codex提供商前缀通过普通 OpenClaw PI 运行器使用的 OpenAI Codex OAuth/订阅路由。
codex 插件插件内置 OpenClaw 插件,提供原生 Codex 应用服务器运行时和 /codex 聊天控制。
agentRuntime.id: codexAgent runtime强制嵌入式轮次使用原生 Codex 应用服务器 harness。
/codex ...聊天命令集从会话中绑定/控制 Codex 应用服务器线程。
runtime: "acp", agentId: "codex"ACP 会话路由通过 ACP/acpx 运行 Codex 的显式回退路径。
这意味着配置可以有意同时包含 openai-codex/*codex 插件。当你既想通过 PI 使用 Codex OAuth,又想让原生 /codex 聊天控制可用时,这是有效的。openclaw doctor 会针对这种组合发出警告,以便你确认这是有意设置;它不会重写该配置。
GPT-5.5 可通过直接 OpenAI Platform API key 访问和订阅/OAuth 路由使用。对于 ChatGPT/Codex 订阅加原生 Codex 执行,请使用带 agentRuntime.id: "codex"openai/gpt-5.5。仅在通过 PI 使用 Codex OAuth 时使用 openai-codex/gpt-5.5;或者在不覆盖 Codex 运行时的情况下使用 openai/gpt-5.5 处理直接 OPENAI_API_KEY 流量。
启用 OpenAI 插件,或选择 openai-codex/* 模型,并不会启用内置 Codex 应用服务器插件。OpenClaw 只会在你通过 agentRuntime.id: "codex" 显式选择原生 Codex harness,或使用旧版 codex/* 模型引用时启用该插件。 如果内置 codex 插件已启用,但 openai-codex/* 仍通过 PI 解析,openclaw doctor 会发出警告并保持路由不变。

OpenClaw 功能覆盖

OpenAI 能力OpenClaw 使用面Status
聊天 / Responsesopenai/<model> 模型提供商
Codex 订阅模型使用 openai-codex OAuth 的 openai-codex/<model>
Codex 应用服务器 harnessagentRuntime.id: codexopenai/<model>
服务端 Web 搜索原生 OpenAI Responses 工具是,在启用 Web 搜索且未固定提供商时
图像image_generate
视频video_generate
文本转语音messages.tts.provider: "openai" / tts
批量语音转文本tools.media.audio / 媒体理解
流式语音转文本语音通话 streaming.provider: "openai"
实时语音语音通话 realtime.provider: "openai" / Control UI Talk
嵌入记忆嵌入提供商

记忆嵌入

OpenClaw 可以使用 OpenAI 或 OpenAI 兼容的嵌入端点,为 memory_search 索引和查询嵌入提供支持:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
对于需要非对称嵌入标签的 OpenAI 兼容端点,请在 memorySearch 下设置 queryInputTypedocumentInputType。OpenClaw 会将它们作为提供商特定的 input_type 请求字段转发:查询嵌入使用 queryInputType;已索引的记忆片段和批量索引使用 documentInputType。完整示例见记忆配置参考

入门指南

选择你偏好的凭证方法并按照设置步骤操作。
最适合: 直接 API 访问和按量计费。
1

获取你的 API key

OpenAI Platform 控制台创建或复制 API key。
2

运行新手引导

openclaw onboard --auth-choice openai-api-key
或直接传入 key:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

验证模型可用

openclaw models list --provider openai

路由摘要

模型引用运行时配置路由凭证
openai/gpt-5.5省略 / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-mini省略 / agentRuntime.id: "pi"直接 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.5agentRuntime.id: "codex"Codex 应用服务器 harnessCodex 应用服务器
openai/* 是直接 OpenAI API key 路由,除非你显式强制使用 Codex 应用服务器 harness。通过默认 PI 运行器使用 Codex OAuth 时使用 openai-codex/*;使用原生 Codex 应用服务器执行时,使用带 agentRuntime.id: "codex"openai/gpt-5.5

配置示例

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenClaw 不会暴露 openai/gpt-5.3-codex-spark。实时 OpenAI API 请求会拒绝该模型,当前 Codex 目录也不会暴露它。

原生 Codex app-server 认证

原生 Codex app-server harness 使用 openai/* 模型引用加 agentRuntime.id: "codex",但其认证仍然基于账号。OpenClaw 按以下顺序选择认证:
  1. 绑定到 agent 的显式 OpenClaw openai-codex 认证配置文件。
  2. app-server 的现有账号,例如本地 Codex CLI ChatGPT 登录。
  3. 仅对于本地 stdio app-server 启动,当 app-server 报告没有账号但仍需要 OpenAI 认证时,使用 CODEX_API_KEY,然后使用 OPENAI_API_KEY
这意味着本地 ChatGPT/Codex 订阅登录不会仅仅因为 Gateway 网关进程也为直接 OpenAI 模型或嵌入设置了 OPENAI_API_KEY 而被替换。环境 API key 回退只适用于本地 stdio 无账号路径;它不会发送到 WebSocket app-server 连接。选择订阅式 Codex 配置文件时,OpenClaw 还会将 CODEX_API_KEYOPENAI_API_KEY 排除在生成的 stdio app-server 子进程之外,并通过 app-server login RPC 发送所选凭证。

图像生成

内置 openai 插件通过 image_generate 工具注册图像生成。 它通过同一个 openai/gpt-image-2 模型引用,同时支持 OpenAI API key 图像生成和 Codex OAuth 图像生成。
能力OpenAI API keyCodex OAuth
模型引用openai/gpt-image-2openai/gpt-image-2
认证OPENAI_API_KEYOpenAI Codex OAuth 登录
传输OpenAI Images APICodex Responses 后端
每次请求的最大图像数44
编辑模式已启用(最多 5 张参考图像)已启用(最多 5 张参考图像)
尺寸覆盖支持,包括 2K/4K 尺寸支持,包括 2K/4K 尺寸
纵横比 / 分辨率不转发到 OpenAI Images API安全时映射到支持的尺寸
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
请参阅图像生成,了解共享工具参数、提供商选择和故障转移行为。
gpt-image-2 是 OpenAI 文本到图像生成和图像编辑的默认值。gpt-image-1.5gpt-image-1gpt-image-1-mini 仍可用作显式模型覆盖。对于透明背景 PNG/WebP 输出,请使用 openai/gpt-image-1.5;当前的 gpt-image-2 API 会拒绝 background: "transparent" 对于透明背景请求,agent 应使用 model: "openai/gpt-image-1.5"outputFormat: "png""webp" 以及 background: "transparent" 调用 image_generate;较旧的 openai.background 提供商选项仍被接受。OpenClaw 还会保护公共 OpenAI 和 OpenAI Codex OAuth 路由,将默认 openai/gpt-image-2 透明请求重写为 gpt-image-1.5;Azure 和自定义 OpenAI 兼容端点会保留其配置的部署/模型名称。 同一设置也暴露给无头 CLI 运行:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "A simple red circle sticker on a transparent background" \
  --json
从输入文件开始时,请对 openclaw infer image edit 使用相同的 --output-format--background 标志。 --openai-background 仍可作为 OpenAI 专用别名使用。 对于 Codex OAuth 安装,请保持相同的 openai/gpt-image-2 引用。配置了 openai-codex OAuth 配置文件时,OpenClaw 会解析该存储的 OAuth 访问令牌,并通过 Codex Responses 后端发送图像请求。它不会先尝试 OPENAI_API_KEY,也不会为该请求静默回退到 API key。若要改用直接 OpenAI Images API 路由,请显式配置 models.providers.openai,并设置 API key、自定义 base URL 或 Azure 端点。 如果该自定义图像端点位于受信任的 LAN/私有地址上,还要设置 browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此选择加入,OpenClaw 会继续阻止私有/内部 OpenAI 兼容图像端点。 生成:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
生成透明 PNG:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
编辑:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536

视频生成

内置 openai 插件通过 video_generate 工具注册视频生成。
能力
默认模型openai/sora-2
模式文本到视频、图像到视频、单视频编辑
参考输入1 张图像或 1 个视频
尺寸覆盖支持
其他覆盖aspectRatioresolutionaudiowatermark 会被忽略并产生工具警告
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
请参阅视频生成,了解共享工具参数、提供商选择和故障转移行为。

GPT-5 提示贡献

OpenClaw 会为跨提供商的 GPT-5 系列运行添加共享 GPT-5 提示贡献。它按模型 ID 应用,因此 openai-codex/gpt-5.5openai/gpt-5.5openrouter/openai/gpt-5.5opencode/gpt-5.5 和其他兼容的 GPT-5 引用都会收到相同的叠加层。较旧的 GPT-4.x 模型不会收到。 内置原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和 Heartbeat 叠加层,因此即使 Codex 拥有 harness 提示的其余部分,通过 agentRuntime.id: "codex" 强制路由的 openai/gpt-5.x 会话仍保留相同的跟进和主动 Heartbeat 指导。 GPT-5 贡献添加了一个带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形状、完成检查和验证。渠道特定的回复和静默消息行为保留在共享 OpenClaw 系统提示和出站投递策略中。GPT-5 指导始终为匹配模型启用。友好的交互风格层是独立且可配置的。
效果
"friendly"(默认)启用友好的交互风格层
"on""friendly" 的别名
"off"仅禁用友好风格层
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
运行时值不区分大小写,因此 "Off""off" 都会禁用友好风格层。
当共享 agents.defaults.promptOverlays.gpt5.personality 设置未设置时,旧版 plugins.entries.openai.config.personality 仍会作为兼容性回退被读取。

语音和语音识别

内置 openai 插件为 messages.tts 表面注册语音合成。
设置配置路径默认值
模型messages.tts.providers.openai.modelgpt-4o-mini-tts
语音messages.tts.providers.openai.voicecoral
速度messages.tts.providers.openai.speed(未设置)
指令messages.tts.providers.openai.instructions(未设置,仅 gpt-4o-mini-tts
格式messages.tts.providers.openai.responseFormat语音留言使用 opus,文件使用 mp3
API keymessages.tts.providers.openai.apiKey回退到 OPENAI_API_KEY
基础 URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
额外请求体messages.tts.providers.openai.extraBody / extra_body(未设置)
可用模型:gpt-4o-mini-ttstts-1tts-1-hd。可用语音:alloyashballadcedarcoralechofablejunipermarinonyxnovasageshimmerverseextraBody 会在 OpenClaw 生成的字段之后合并到 /audio/speech 请求 JSON 中,因此可将它用于需要额外键(例如 lang)的 OpenAI 兼容端点。原型键会被忽略。
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
设置 OPENAI_TTS_BASE_URL 可覆盖 TTS 基础 URL,且不影响聊天 API 端点。
内置 openai 插件通过 OpenClaw 的媒体理解转写接口注册批量语音转文本。
  • 默认模型:gpt-4o-transcribe
  • 端点:OpenAI REST /v1/audio/transcriptions
  • 输入路径:multipart 音频文件上传
  • OpenClaw 中任何使用入站音频转写的地方都支持,包括 Discord 语音频道片段和渠道音频附件,即 tools.media.audio
若要强制入站音频转写使用 OpenAI:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
当共享音频媒体配置或单次调用转写请求提供语言和提示词提示时,它们会转发给 OpenAI。
内置 openai 插件为 Voice Call 插件注册实时转写。
设置配置路径默认值
模型plugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
语言...openai.language(未设置)
提示词...openai.prompt(未设置)
静默时长...openai.silenceDurationMs800
VAD 阈值...openai.vadThreshold0.5
API key...openai.apiKey回退到 OPENAI_API_KEY
使用 WebSocket 连接到 wss://api.openai.com/v1/realtime,音频为 G.711 u-law(g711_ulaw / audio/pcmu)。此流式提供商用于 Voice Call 的实时转写路径;Discord 语音目前会录制短片段,并改用批量 tools.media.audio 转写路径。
内置 openai 插件为 Voice Call 插件注册实时语音。
设置配置路径默认值
模型plugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-1.5
语音...openai.voicealloy
温度...openai.temperature0.8
VAD 阈值...openai.vadThreshold0.5
静默时长...openai.silenceDurationMs500
API key...openai.apiKey回退到 OPENAI_API_KEY
通过后端实时桥接的 azureEndpointazureDeployment 配置键支持 Azure OpenAI。支持双向 tool 调用。使用 G.711 u-law 音频格式。
Control UI Talk 使用 OpenAI 浏览器实时会话,通过 Gateway 网关签发的临时客户端密钥,并针对 OpenAI Realtime API 直接进行浏览器 WebRTC SDP 交换。维护者可使用 OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts 进行实时验证;OpenAI 这一段会在 Node 中签发客户端密钥,使用模拟麦克风媒体生成浏览器 SDP offer,将其发布到 OpenAI,并应用 SDP answer,且不会记录密钥。

Azure OpenAI 端点

内置 openai provider 可以通过覆盖基础 URL,将图像生成指向 Azure OpenAI 资源。在图像生成路径上,OpenClaw 会检测 models.providers.openai.baseUrl 上的 Azure 主机名,并自动切换到 Azure 的请求形态。
实时语音使用单独的配置路径 (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint), 不受 models.providers.openai.baseUrl 影响。其 Azure 设置见 语音和语音功能 下的 实时语音 折叠面板。
在以下情况下使用 Azure OpenAI:
  • 你已有 Azure OpenAI 订阅、配额或企业协议
  • 你需要 Azure 提供的区域数据驻留或合规控制
  • 你想让流量保留在现有 Azure 租户内

配置

若要通过内置 openai provider 使用 Azure 图像生成,请将 models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为 Azure OpenAI key(不是 OpenAI Platform key):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw 会识别以下 Azure 主机后缀,并用于 Azure 图像生成路由:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
对于已识别 Azure 主机上的图像生成请求,OpenClaw 会:
  • 发送 api-key 标头,而不是 Authorization: Bearer
  • 使用按部署限定的路径(/openai/deployments/{deployment}/...
  • 向每个请求追加 ?api-version=...
  • 对 Azure 图像生成调用使用默认 600 秒请求超时。 单次调用的 timeoutMs 值仍会覆盖此默认值。
其他基础 URL(公共 OpenAI、OpenAI 兼容代理)会保持标准 OpenAI 图像请求形态。
openai provider 的图像生成路径上的 Azure 路由需要 OpenClaw 2026.4.22 或更高版本。早期版本会将任何自定义 openai.baseUrl 当作公共 OpenAI 端点处理,并且在对接 Azure 图像部署时会失败。

API 版本

设置 AZURE_OPENAI_API_VERSION 可为 Azure 图像生成路径固定特定 Azure 预览版或 GA 版本:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
变量未设置时,默认值为 2024-12-01-preview

模型名称就是部署名称

Azure OpenAI 会将模型绑定到部署。对于通过内置 openai provider 路由的 Azure 图像生成请求,OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称,而不是公共 OpenAI 模型 ID。 如果你创建了名为 gpt-image-2-prod、用于提供 gpt-image-2 的部署:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
同样的部署名称规则也适用于通过内置 openai provider 路由的图像生成调用。

区域可用性

Azure 图像生成目前仅在部分区域可用 (例如 eastus2swedencentralpolandcentralwestus3uaenorth)。创建部署前,请检查 Microsoft 当前的区域列表,并确认你的区域提供具体模型。

参数差异

Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。Azure 可能会拒绝公共 OpenAI 允许的选项(例如 gpt-image-2 上的某些 background 值),或仅在特定模型版本上公开这些选项。这些差异来自 Azure 和底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在 Azure 门户中检查你的具体部署和 API 版本支持的参数集。
Azure OpenAI 使用原生传输和兼容行为,但不会接收 OpenClaw 的隐藏归因标头 — 见 高级配置 下的 原生与 OpenAI 兼容路由 折叠面板。对于 Azure 上的聊天或 Responses 流量(图像生成之外),请使用新手引导流程或专用 Azure provider 配置;仅设置 openai.baseUrl 不会套用 Azure API/鉴权形态。另有一个单独的 azure-openai-responses/* provider;见下方服务器端压缩折叠面板。

高级配置

OpenClaw 对 openai/*openai-codex/* 都优先使用 WebSocket,并以 SSE 作为回退("auto")。"auto" 模式下,OpenClaw:
  • 在回退到 SSE 前,会重试一次早期 WebSocket 失败
  • 失败后,将 WebSocket 标记为降级约 60 秒,并在冷却期间使用 SSE
  • 为重试和重新连接附加稳定的会话和回合身份标头
  • 在不同传输变体之间规范化用量计数器(input_tokens / prompt_tokens
行为
"auto"(默认)WebSocket 优先,SSE 回退
"sse"仅强制使用 SSE
"websocket"仅强制使用 WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
        "openai-codex/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
相关 OpenAI 文档:
OpenClaw 默认为 openai/*openai-codex/* 启用 WebSocket 预热,以降低首次回合延迟。
// Disable warm-up
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw 为 openai/*openai-codex/* 暴露共享快速模式开关:
  • 聊天/UI: /fast status|on|off
  • 配置: agents.defaults.models["<provider>/<model>"].params.fastMode
启用后,OpenClaw 会将快速模式映射到 OpenAI 优先处理(service_tier = "priority")。现有 service_tier 值会保留,快速模式不会重写 reasoningtext.verbosity
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
会话覆盖优先于配置。在会话 UI 中清除会话覆盖后,会话会回到已配置的默认值。
OpenAI 的 API 通过 service_tier 暴露优先处理。可在 OpenClaw 中按模型设置它:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
支持的值:autodefaultflexpriority
serviceTier 仅会转发到原生 OpenAI 端点(api.openai.com)和原生 Codex 端点(chatgpt.com/backend-api)。如果你通过代理路由任一提供商,OpenClaw 会保持 service_tier 不变。
对于直接的 OpenAI Responses 模型(openai/* 位于 api.openai.com),OpenAI 插件的 Pi-harness 流包装器会自动启用服务端压缩:
  • 强制设置 store: true(除非模型兼容性设置了 supportsStore: false
  • 注入 context_management: [{ type: "compaction", compact_threshold: ... }]
  • 默认 compact_thresholdcontextWindow 的 70%(不可用时为 80000
这适用于内置的 Pi harness 路径,以及嵌入式运行使用的 OpenAI provider 钩子。原生 Codex 应用服务器 harness 通过 Codex 管理自己的上下文,并通过 agents.defaults.agentRuntime.id 单独配置。
适用于 Azure OpenAI Responses 等兼容端点:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction 只控制 context_management 注入。直接的 OpenAI Responses 模型仍会强制设置 store: true,除非兼容性设置了 supportsStore: false
对于 openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
使用 strict-agentic 时,OpenClaw:
  • 当工具操作可用时,不再将仅计划的轮次视为成功进展
  • 使用立即行动引导重试该轮次
  • 为实质性工作自动启用 update_plan
  • 如果模型持续只做计划而不行动,则暴露明确的阻塞状态
仅限 OpenAI 和 Codex GPT-5 系列运行。其他提供商和更早的模型系列保持默认行为。
OpenClaw 对待直接的 OpenAI、Codex 和 Azure OpenAI 端点的方式不同于通用的 OpenAI 兼容 /v1 代理:原生路由openai/*、Azure OpenAI):
  • 仅对支持 OpenAI none effort 的模型保留 reasoning: { effort: "none" }
  • 对拒绝 reasoning.effort: "none" 的模型或代理省略已禁用的推理
  • 默认将工具 schema 设为严格模式
  • 仅在已验证的原生主机上附加隐藏归因标头
  • 保留仅 OpenAI 使用的请求塑形(service_tierstore、推理兼容性、prompt-cache 提示)
代理/兼容路由:
  • 使用更宽松的兼容行为
  • 从非原生 openai-completions 载荷中剥离 Completions store
  • 接受高级 params.extra_body/params.extraBody 透传 JSON,用于 OpenAI 兼容的 Completions 代理
  • 接受 params.chat_template_kwargs,用于 vLLM 等 OpenAI 兼容的 Completions 代理
  • 不强制使用严格工具 schema 或仅原生使用的标头
Azure OpenAI 使用原生传输和兼容行为,但不会接收隐藏归因标头。

相关

模型选择

选择提供商、模型引用和故障转移行为。

图像生成

共享图像工具参数和提供商选择。

视频生成

共享视频工具参数和提供商选择。

OAuth 和认证

认证详情和凭据复用规则。