OpenAI 提供面向 GPT 模型的开发者 API,Codex 也可通过 OpenAI 的 Codex 客户端作为 ChatGPT 方案中的编码智能体使用。OpenClaw 将这些使用面保持分离,确保配置保持可预测。 OpenClaw 支持三种 OpenAI 系列路由。大多数想要 Codex 行为的 ChatGPT/Codex 订阅用户应使用原生 Codex 应用服务器运行时。模型前缀选择提供商/模型名称;单独的运行时设置选择由谁执行嵌入式 Agent loop:Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- API key - 使用按量计费的 OpenAI Platform 直接访问(
openai/*模型) - 带原生 Codex 运行时的 Codex 订阅 - ChatGPT/Codex 登录加 Codex 应用服务器执行(
openai/*模型加agents.defaults.agentRuntime.id: "codex") - 通过 PI 的 Codex 订阅 - 使用普通 OpenClaw PI 运行器的 ChatGPT/Codex 登录(
openai-codex/*模型)
快速选择
| 目标 | 使用 | 说明 |
|---|---|---|
| 带原生 Codex 运行时的 ChatGPT/Codex 订阅 | openai/gpt-5.5 加 agentRuntime.id: "codex" | 推荐给大多数用户的 Codex 设置。使用 openai-codex 凭证登录。 |
| 直接 API key 计费 | openai/gpt-5.5 | 设置 OPENAI_API_KEY 或运行 OpenAI API key 新手引导。 |
| 通过 PI 使用 ChatGPT/Codex 订阅凭证 | openai-codex/gpt-5.5 | 仅在你有意使用普通 PI 运行器时使用。 |
| 图像生成或编辑 | openai/gpt-image-2 | 可与 OPENAI_API_KEY 或 OpenAI Codex OAuth 配合使用。 |
| 透明背景图像 | openai/gpt-image-1.5 | 使用 outputFormat=png 或 webp,并设置 openai.background=transparent。 |
命名映射
这些名称相似,但不可互换:| 你看到的名称 | 层 | 含义 |
|---|---|---|
openai | 提供商前缀 | 直接 OpenAI Platform API 路由。 |
openai-codex | 提供商前缀 | 通过普通 OpenClaw PI 运行器使用的 OpenAI Codex OAuth/订阅路由。 |
codex 插件 | 插件 | 内置 OpenClaw 插件,提供原生 Codex 应用服务器运行时和 /codex 聊天控制。 |
agentRuntime.id: codex | Agent runtime | 强制嵌入式轮次使用原生 Codex 应用服务器 harness。 |
/codex ... | 聊天命令集 | 从会话中绑定/控制 Codex 应用服务器线程。 |
runtime: "acp", agentId: "codex" | ACP 会话路由 | 通过 ACP/acpx 运行 Codex 的显式回退路径。 |
openai-codex/* 和 codex 插件。当你既想通过 PI 使用 Codex OAuth,又想让原生 /codex 聊天控制可用时,这是有效的。openclaw doctor 会针对这种组合发出警告,以便你确认这是有意设置;它不会重写该配置。
GPT-5.5 可通过直接 OpenAI Platform API key 访问和订阅/OAuth 路由使用。对于 ChatGPT/Codex 订阅加原生 Codex 执行,请使用带
agentRuntime.id: "codex" 的 openai/gpt-5.5。仅在通过 PI 使用 Codex OAuth 时使用 openai-codex/gpt-5.5;或者在不覆盖 Codex 运行时的情况下使用 openai/gpt-5.5 处理直接 OPENAI_API_KEY 流量。启用 OpenAI 插件,或选择
openai-codex/* 模型,并不会启用内置 Codex 应用服务器插件。OpenClaw 只会在你通过 agentRuntime.id: "codex" 显式选择原生 Codex harness,或使用旧版 codex/* 模型引用时启用该插件。
如果内置 codex 插件已启用,但 openai-codex/* 仍通过 PI 解析,openclaw doctor 会发出警告并保持路由不变。OpenClaw 功能覆盖
| OpenAI 能力 | OpenClaw 使用面 | Status |
|---|---|---|
| 聊天 / Responses | openai/<model> 模型提供商 | 是 |
| Codex 订阅模型 | 使用 openai-codex OAuth 的 openai-codex/<model> | 是 |
| Codex 应用服务器 harness | 带 agentRuntime.id: codex 的 openai/<model> | 是 |
| 服务端 Web 搜索 | 原生 OpenAI Responses 工具 | 是,在启用 Web 搜索且未固定提供商时 |
| 图像 | image_generate | 是 |
| 视频 | video_generate | 是 |
| 文本转语音 | messages.tts.provider: "openai" / tts | 是 |
| 批量语音转文本 | tools.media.audio / 媒体理解 | 是 |
| 流式语音转文本 | 语音通话 streaming.provider: "openai" | 是 |
| 实时语音 | 语音通话 realtime.provider: "openai" / Control UI Talk | 是 |
| 嵌入 | 记忆嵌入提供商 | 是 |
记忆嵌入
OpenClaw 可以使用 OpenAI 或 OpenAI 兼容的嵌入端点,为memory_search 索引和查询嵌入提供支持:
memorySearch 下设置 queryInputType 和 documentInputType。OpenClaw 会将它们作为提供商特定的 input_type 请求字段转发:查询嵌入使用 queryInputType;已索引的记忆片段和批量索引使用 documentInputType。完整示例见记忆配置参考。
入门指南
选择你偏好的凭证方法并按照设置步骤操作。- API key(OpenAI Platform)
- Codex 订阅
最适合: 直接 API 访问和按量计费。
路由摘要
| 模型引用 | 运行时配置 | 路由 | 凭证 |
|---|---|---|---|
openai/gpt-5.5 | 省略 / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-mini | 省略 / agentRuntime.id: "pi" | 直接 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.5 | agentRuntime.id: "codex" | Codex 应用服务器 harness | Codex 应用服务器 |
openai/* 是直接 OpenAI API key 路由,除非你显式强制使用 Codex 应用服务器 harness。通过默认 PI 运行器使用 Codex OAuth 时使用 openai-codex/*;使用原生 Codex 应用服务器执行时,使用带 agentRuntime.id: "codex" 的 openai/gpt-5.5。配置示例
原生 Codex app-server 认证
原生 Codex app-server harness 使用openai/* 模型引用加
agentRuntime.id: "codex",但其认证仍然基于账号。OpenClaw
按以下顺序选择认证:
- 绑定到 agent 的显式 OpenClaw
openai-codex认证配置文件。 - app-server 的现有账号,例如本地 Codex CLI ChatGPT 登录。
- 仅对于本地 stdio app-server 启动,当 app-server 报告没有账号但仍需要
OpenAI 认证时,使用
CODEX_API_KEY,然后使用OPENAI_API_KEY。
OPENAI_API_KEY 而被替换。环境 API key 回退只适用于本地 stdio 无账号路径;它不会发送到 WebSocket app-server 连接。选择订阅式 Codex 配置文件时,OpenClaw 还会将 CODEX_API_KEY 和 OPENAI_API_KEY
排除在生成的 stdio app-server 子进程之外,并通过 app-server login RPC 发送所选凭证。
图像生成
内置openai 插件通过 image_generate 工具注册图像生成。
它通过同一个 openai/gpt-image-2 模型引用,同时支持 OpenAI API key 图像生成和 Codex OAuth 图像生成。
| 能力 | OpenAI API key | Codex OAuth |
|---|---|---|
| 模型引用 | openai/gpt-image-2 | openai/gpt-image-2 |
| 认证 | OPENAI_API_KEY | OpenAI Codex OAuth 登录 |
| 传输 | OpenAI Images API | Codex Responses 后端 |
| 每次请求的最大图像数 | 4 | 4 |
| 编辑模式 | 已启用(最多 5 张参考图像) | 已启用(最多 5 张参考图像) |
| 尺寸覆盖 | 支持,包括 2K/4K 尺寸 | 支持,包括 2K/4K 尺寸 |
| 纵横比 / 分辨率 | 不转发到 OpenAI Images API | 安全时映射到支持的尺寸 |
请参阅图像生成,了解共享工具参数、提供商选择和故障转移行为。
gpt-image-2 是 OpenAI 文本到图像生成和图像编辑的默认值。gpt-image-1.5、gpt-image-1 和 gpt-image-1-mini 仍可用作显式模型覆盖。对于透明背景 PNG/WebP 输出,请使用 openai/gpt-image-1.5;当前的 gpt-image-2 API 会拒绝
background: "transparent"。
对于透明背景请求,agent 应使用 model: "openai/gpt-image-1.5"、outputFormat: "png" 或 "webp" 以及
background: "transparent" 调用 image_generate;较旧的 openai.background 提供商选项仍被接受。OpenClaw 还会保护公共 OpenAI 和
OpenAI Codex OAuth 路由,将默认 openai/gpt-image-2 透明请求重写为 gpt-image-1.5;Azure 和自定义 OpenAI 兼容端点会保留其配置的部署/模型名称。
同一设置也暴露给无头 CLI 运行:
openclaw infer image edit 使用相同的 --output-format 和 --background 标志。
--openai-background 仍可作为 OpenAI 专用别名使用。
对于 Codex OAuth 安装,请保持相同的 openai/gpt-image-2 引用。配置了
openai-codex OAuth 配置文件时,OpenClaw 会解析该存储的 OAuth
访问令牌,并通过 Codex Responses 后端发送图像请求。它不会先尝试 OPENAI_API_KEY,也不会为该请求静默回退到 API key。若要改用直接 OpenAI Images API 路由,请显式配置 models.providers.openai,并设置 API key、自定义 base URL 或 Azure 端点。
如果该自定义图像端点位于受信任的 LAN/私有地址上,还要设置
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true;除非存在此选择加入,OpenClaw 会继续阻止私有/内部 OpenAI 兼容图像端点。
生成:
视频生成
内置openai 插件通过 video_generate 工具注册视频生成。
| 能力 | 值 |
|---|---|
| 默认模型 | openai/sora-2 |
| 模式 | 文本到视频、图像到视频、单视频编辑 |
| 参考输入 | 1 张图像或 1 个视频 |
| 尺寸覆盖 | 支持 |
| 其他覆盖 | aspectRatio、resolution、audio、watermark 会被忽略并产生工具警告 |
请参阅视频生成,了解共享工具参数、提供商选择和故障转移行为。
GPT-5 提示贡献
OpenClaw 会为跨提供商的 GPT-5 系列运行添加共享 GPT-5 提示贡献。它按模型 ID 应用,因此openai-codex/gpt-5.5、openai/gpt-5.5、openrouter/openai/gpt-5.5、opencode/gpt-5.5 和其他兼容的 GPT-5 引用都会收到相同的叠加层。较旧的 GPT-4.x 模型不会收到。
内置原生 Codex harness 通过 Codex app-server 开发者指令使用相同的 GPT-5 行为和 Heartbeat 叠加层,因此即使 Codex 拥有 harness 提示的其余部分,通过 agentRuntime.id: "codex" 强制路由的 openai/gpt-5.x 会话仍保留相同的跟进和主动 Heartbeat 指导。
GPT-5 贡献添加了一个带标签的行为契约,涵盖人格持久性、执行安全、工具纪律、输出形状、完成检查和验证。渠道特定的回复和静默消息行为保留在共享 OpenClaw 系统提示和出站投递策略中。GPT-5 指导始终为匹配模型启用。友好的交互风格层是独立且可配置的。
| 值 | 效果 |
|---|---|
"friendly"(默认) | 启用友好的交互风格层 |
"on" | "friendly" 的别名 |
"off" | 仅禁用友好风格层 |
- 配置
- CLI
当共享
agents.defaults.promptOverlays.gpt5.personality 设置未设置时,旧版 plugins.entries.openai.config.personality 仍会作为兼容性回退被读取。语音和语音识别
语音合成(TTS)
语音合成(TTS)
内置
可用模型:
openai 插件为 messages.tts 表面注册语音合成。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| 语音 | messages.tts.providers.openai.voice | coral |
| 速度 | messages.tts.providers.openai.speed | (未设置) |
| 指令 | messages.tts.providers.openai.instructions | (未设置,仅 gpt-4o-mini-tts) |
| 格式 | messages.tts.providers.openai.responseFormat | 语音留言使用 opus,文件使用 mp3 |
| API key | messages.tts.providers.openai.apiKey | 回退到 OPENAI_API_KEY |
| 基础 URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
| 额外请求体 | messages.tts.providers.openai.extraBody / extra_body | (未设置) |
gpt-4o-mini-tts、tts-1、tts-1-hd。可用语音:alloy、ash、ballad、cedar、coral、echo、fable、juniper、marin、onyx、nova、sage、shimmer、verse。extraBody 会在 OpenClaw 生成的字段之后合并到 /audio/speech 请求 JSON 中,因此可将它用于需要额外键(例如 lang)的 OpenAI 兼容端点。原型键会被忽略。设置
OPENAI_TTS_BASE_URL 可覆盖 TTS 基础 URL,且不影响聊天 API 端点。语音转文本
语音转文本
内置 当共享音频媒体配置或单次调用转写请求提供语言和提示词提示时,它们会转发给 OpenAI。
openai 插件通过 OpenClaw 的媒体理解转写接口注册批量语音转文本。- 默认模型:
gpt-4o-transcribe - 端点:OpenAI REST
/v1/audio/transcriptions - 输入路径:multipart 音频文件上传
- OpenClaw 中任何使用入站音频转写的地方都支持,包括 Discord 语音频道片段和渠道音频附件,即
tools.media.audio
实时转写
实时转写
内置
openai 插件为 Voice Call 插件注册实时转写。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| 语言 | ...openai.language | (未设置) |
| 提示词 | ...openai.prompt | (未设置) |
| 静默时长 | ...openai.silenceDurationMs | 800 |
| VAD 阈值 | ...openai.vadThreshold | 0.5 |
| API key | ...openai.apiKey | 回退到 OPENAI_API_KEY |
使用 WebSocket 连接到
wss://api.openai.com/v1/realtime,音频为 G.711 u-law(g711_ulaw / audio/pcmu)。此流式提供商用于 Voice Call 的实时转写路径;Discord 语音目前会录制短片段,并改用批量 tools.media.audio 转写路径。实时语音
实时语音
内置
openai 插件为 Voice Call 插件注册实时语音。| 设置 | 配置路径 | 默认值 |
|---|---|---|
| 模型 | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime-1.5 |
| 语音 | ...openai.voice | alloy |
| 温度 | ...openai.temperature | 0.8 |
| VAD 阈值 | ...openai.vadThreshold | 0.5 |
| 静默时长 | ...openai.silenceDurationMs | 500 |
| API key | ...openai.apiKey | 回退到 OPENAI_API_KEY |
通过后端实时桥接的
azureEndpoint 和 azureDeployment 配置键支持 Azure OpenAI。支持双向 tool 调用。使用 G.711 u-law 音频格式。Control UI Talk 使用 OpenAI 浏览器实时会话,通过 Gateway 网关签发的临时客户端密钥,并针对 OpenAI Realtime API 直接进行浏览器 WebRTC SDP 交换。维护者可使用
OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts 进行实时验证;OpenAI 这一段会在 Node 中签发客户端密钥,使用模拟麦克风媒体生成浏览器 SDP offer,将其发布到 OpenAI,并应用 SDP answer,且不会记录密钥。Azure OpenAI 端点
内置openai provider 可以通过覆盖基础 URL,将图像生成指向 Azure OpenAI 资源。在图像生成路径上,OpenClaw 会检测 models.providers.openai.baseUrl 上的 Azure 主机名,并自动切换到 Azure 的请求形态。
实时语音使用单独的配置路径
(
plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint),
不受 models.providers.openai.baseUrl 影响。其 Azure 设置见 语音和语音功能 下的 实时语音 折叠面板。- 你已有 Azure OpenAI 订阅、配额或企业协议
- 你需要 Azure 提供的区域数据驻留或合规控制
- 你想让流量保留在现有 Azure 租户内
配置
若要通过内置openai provider 使用 Azure 图像生成,请将
models.providers.openai.baseUrl 指向你的 Azure 资源,并将 apiKey 设置为 Azure OpenAI key(不是 OpenAI Platform key):
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
- 发送
api-key标头,而不是Authorization: Bearer - 使用按部署限定的路径(
/openai/deployments/{deployment}/...) - 向每个请求追加
?api-version=... - 对 Azure 图像生成调用使用默认 600 秒请求超时。
单次调用的
timeoutMs值仍会覆盖此默认值。
openai provider 的图像生成路径上的 Azure 路由需要 OpenClaw 2026.4.22 或更高版本。早期版本会将任何自定义 openai.baseUrl 当作公共 OpenAI 端点处理,并且在对接 Azure 图像部署时会失败。API 版本
设置AZURE_OPENAI_API_VERSION 可为 Azure 图像生成路径固定特定 Azure 预览版或 GA 版本:
2024-12-01-preview。
模型名称就是部署名称
Azure OpenAI 会将模型绑定到部署。对于通过内置openai provider 路由的 Azure 图像生成请求,OpenClaw 中的 model 字段必须是你在 Azure 门户中配置的 Azure 部署名称,而不是公共 OpenAI 模型 ID。
如果你创建了名为 gpt-image-2-prod、用于提供 gpt-image-2 的部署:
openai provider 路由的图像生成调用。
区域可用性
Azure 图像生成目前仅在部分区域可用 (例如eastus2、swedencentral、polandcentral、westus3、
uaenorth)。创建部署前,请检查 Microsoft 当前的区域列表,并确认你的区域提供具体模型。
参数差异
Azure OpenAI 和公共 OpenAI 并不总是接受相同的图像参数。Azure 可能会拒绝公共 OpenAI 允许的选项(例如gpt-image-2 上的某些 background 值),或仅在特定模型版本上公开这些选项。这些差异来自 Azure 和底层模型,而不是 OpenClaw。如果 Azure 请求因验证错误而失败,请在 Azure 门户中检查你的具体部署和 API 版本支持的参数集。
Azure OpenAI 使用原生传输和兼容行为,但不会接收 OpenClaw 的隐藏归因标头 — 见 高级配置 下的 原生与 OpenAI 兼容路由 折叠面板。对于 Azure 上的聊天或 Responses 流量(图像生成之外),请使用新手引导流程或专用 Azure provider 配置;仅设置
openai.baseUrl 不会套用 Azure API/鉴权形态。另有一个单独的 azure-openai-responses/* provider;见下方服务器端压缩折叠面板。高级配置
传输(WebSocket 与 SSE)
传输(WebSocket 与 SSE)
OpenClaw 对
相关 OpenAI 文档:
openai/* 和 openai-codex/* 都优先使用 WebSocket,并以 SSE 作为回退("auto")。在 "auto" 模式下,OpenClaw:- 在回退到 SSE 前,会重试一次早期 WebSocket 失败
- 失败后,将 WebSocket 标记为降级约 60 秒,并在冷却期间使用 SSE
- 为重试和重新连接附加稳定的会话和回合身份标头
- 在不同传输变体之间规范化用量计数器(
input_tokens/prompt_tokens)
| 值 | 行为 |
|---|---|
"auto"(默认) | WebSocket 优先,SSE 回退 |
"sse" | 仅强制使用 SSE |
"websocket" | 仅强制使用 WebSocket |
WebSocket 预热
WebSocket 预热
OpenClaw 默认为
openai/* 和 openai-codex/* 启用 WebSocket 预热,以降低首次回合延迟。快速模式
快速模式
OpenClaw 为
openai/* 和 openai-codex/* 暴露共享快速模式开关:- 聊天/UI:
/fast status|on|off - 配置:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority")。现有 service_tier 值会保留,快速模式不会重写 reasoning 或 text.verbosity。会话覆盖优先于配置。在会话 UI 中清除会话覆盖后,会话会回到已配置的默认值。
优先处理(service_tier)
优先处理(service_tier)
OpenAI 的 API 通过 支持的值:
service_tier 暴露优先处理。可在 OpenClaw 中按模型设置它:auto、default、flex、priority。服务端压缩(Responses API)
服务端压缩(Responses API)
对于直接的 OpenAI Responses 模型(
openai/* 位于 api.openai.com),OpenAI 插件的 Pi-harness 流包装器会自动启用服务端压缩:- 强制设置
store: true(除非模型兼容性设置了supportsStore: false) - 注入
context_management: [{ type: "compaction", compact_threshold: ... }] - 默认
compact_threshold:contextWindow的 70%(不可用时为80000)
agents.defaults.agentRuntime.id 单独配置。- 显式启用
- 自定义阈值
- 禁用
适用于 Azure OpenAI Responses 等兼容端点:
responsesServerCompaction 只控制 context_management 注入。直接的 OpenAI Responses 模型仍会强制设置 store: true,除非兼容性设置了 supportsStore: false。严格智能体式 GPT 模式
严格智能体式 GPT 模式
对于 使用
openai/* 上的 GPT-5 系列运行,OpenClaw 可以使用更严格的嵌入式执行契约:strict-agentic 时,OpenClaw:- 当工具操作可用时,不再将仅计划的轮次视为成功进展
- 使用立即行动引导重试该轮次
- 为实质性工作自动启用
update_plan - 如果模型持续只做计划而不行动,则暴露明确的阻塞状态
仅限 OpenAI 和 Codex GPT-5 系列运行。其他提供商和更早的模型系列保持默认行为。
原生路由与 OpenAI 兼容路由
原生路由与 OpenAI 兼容路由
OpenClaw 对待直接的 OpenAI、Codex 和 Azure OpenAI 端点的方式不同于通用的 OpenAI 兼容
/v1 代理:原生路由(openai/*、Azure OpenAI):- 仅对支持 OpenAI
noneeffort 的模型保留reasoning: { effort: "none" } - 对拒绝
reasoning.effort: "none"的模型或代理省略已禁用的推理 - 默认将工具 schema 设为严格模式
- 仅在已验证的原生主机上附加隐藏归因标头
- 保留仅 OpenAI 使用的请求塑形(
service_tier、store、推理兼容性、prompt-cache 提示)
- 使用更宽松的兼容行为
- 从非原生
openai-completions载荷中剥离 Completionsstore - 接受高级
params.extra_body/params.extraBody透传 JSON,用于 OpenAI 兼容的 Completions 代理 - 接受
params.chat_template_kwargs,用于 vLLM 等 OpenAI 兼容的 Completions 代理 - 不强制使用严格工具 schema 或仅原生使用的标头
相关
模型选择
选择提供商、模型引用和故障转移行为。
图像生成
共享图像工具参数和提供商选择。
视频生成
共享视频工具参数和提供商选择。
OAuth 和认证
认证详情和凭据复用规则。