Chuyển đến nội dung chính

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI cung cấp API dành cho nhà phát triển cho các mô hình GPT, và Codex cũng có sẵn dưới dạng tác nhân lập trình theo gói ChatGPT thông qua các ứng dụng khách Codex của OpenAI. OpenClaw giữ các bề mặt đó tách biệt để cấu hình luôn dễ dự đoán. OpenClaw hỗ trợ ba tuyến thuộc họ OpenAI. Tiền tố mô hình chọn tuyến nhà cung cấp/xác thực; một thiết lập runtime riêng chọn bên thực thi vòng lặp tác nhân nhúng:
  • Khóa API — truy cập trực tiếp OpenAI Platform với tính phí theo mức sử dụng (các mô hình openai/*)
  • Đăng ký Codex qua PI — đăng nhập ChatGPT/Codex với quyền truy cập theo đăng ký (các mô hình openai-codex/*)
  • Bộ khung app-server Codex — thực thi app-server Codex gốc (các mô hình openai/* cộng với agents.defaults.agentRuntime.id: "codex")
OpenAI hỗ trợ rõ ràng việc dùng OAuth đăng ký trong các công cụ và quy trình bên ngoài như OpenClaw. Nhà cung cấp, mô hình, runtime và kênh là các lớp riêng biệt. Nếu các nhãn đó đang bị trộn lẫn với nhau, hãy đọc Runtime tác nhân trước khi thay đổi cấu hình.

Lựa chọn nhanh

Mục tiêuDùngGhi chú
Tính phí trực tiếp bằng khóa APIopenai/gpt-5.5Đặt OPENAI_API_KEY hoặc chạy onboarding khóa API OpenAI.
GPT-5.5 với xác thực đăng ký ChatGPT/Codexopenai-codex/gpt-5.5Tuyến PI mặc định cho OAuth Codex. Lựa chọn đầu tiên tốt nhất cho thiết lập đăng ký.
GPT-5.5 với hành vi app-server Codex gốcopenai/gpt-5.5 cộng với agentRuntime.id: "codex"Buộc dùng bộ khung app-server Codex cho tham chiếu mô hình đó.
Tạo hoặc chỉnh sửa hình ảnhopenai/gpt-image-2Hoạt động với OPENAI_API_KEY hoặc OAuth OpenAI Codex.
Hình ảnh nền trong suốtopenai/gpt-image-1.5Dùng outputFormat=png hoặc webpopenai.background=transparent.

Bản đồ tên gọi

Các tên tương tự nhau nhưng không thể dùng thay thế cho nhau:
Tên bạn thấyLớpÝ nghĩa
openaiTiền tố nhà cung cấpTuyến API OpenAI Platform trực tiếp.
openai-codexTiền tố nhà cung cấpTuyến OAuth/đăng ký OpenAI Codex thông qua runner PI thông thường của OpenClaw.
Plugin codexPluginPlugin OpenClaw đi kèm cung cấp runtime app-server Codex gốc và các điều khiển trò chuyện /codex.
agentRuntime.id: codexRuntime tác nhânBuộc dùng bộ khung app-server Codex gốc cho các lượt nhúng.
/codex ...Bộ lệnh trò chuyệnLiên kết/điều khiển các luồng app-server Codex từ một cuộc trò chuyện.
runtime: "acp", agentId: "codex"Tuyến phiên ACPĐường dự phòng tường minh chạy Codex thông qua ACP/acpx.
Điều này có nghĩa là một cấu hình có thể chủ ý chứa cả openai-codex/* và Plugin codex. Điều đó hợp lệ khi bạn muốn OAuth Codex thông qua PI và cũng muốn có sẵn các điều khiển trò chuyện /codex gốc. openclaw doctor cảnh báo về tổ hợp đó để bạn có thể xác nhận rằng nó là chủ ý; lệnh này không ghi lại cấu hình.
GPT-5.5 có sẵn qua cả quyền truy cập khóa API OpenAI Platform trực tiếp và các tuyến đăng ký/OAuth. Dùng openai/gpt-5.5 cho lưu lượng OPENAI_API_KEY trực tiếp, openai-codex/gpt-5.5 cho OAuth Codex qua PI, hoặc openai/gpt-5.5 với agentRuntime.id: "codex" cho bộ khung app-server Codex gốc.
Bật Plugin OpenAI, hoặc chọn một mô hình openai-codex/*, không bật Plugin app-server Codex đi kèm. OpenClaw chỉ bật Plugin đó khi bạn chọn rõ bộ khung Codex gốc bằng agentRuntime.id: "codex" hoặc dùng tham chiếu mô hình codex/* cũ. Nếu Plugin codex đi kèm được bật nhưng openai-codex/* vẫn phân giải qua PI, openclaw doctor sẽ cảnh báo và giữ nguyên tuyến.

Phạm vi hỗ trợ tính năng OpenClaw

Khả năng OpenAIBề mặt OpenClawTrạng thái
Trò chuyện / ResponsesNhà cung cấp mô hình openai/<model>
Mô hình đăng ký Codexopenai-codex/<model> với OAuth openai-codex
Bộ khung app-server Codexopenai/<model> với agentRuntime.id: codex
Tìm kiếm web phía máy chủCông cụ OpenAI Responses gốcCó, khi tìm kiếm web được bật và không ghim nhà cung cấp
Hình ảnhimage_generate
Videovideo_generate
Chuyển văn bản thành giọng nóimessages.tts.provider: "openai" / tts
Chuyển lời nói thành văn bản theo lôtools.media.audio / hiểu phương tiện
Chuyển lời nói thành văn bản dạng streamingVoice Call streaming.provider: "openai"
Giọng nói thời gian thựcVoice Call realtime.provider: "openai" / Control UI Talk
EmbeddingNhà cung cấp embedding bộ nhớ

Embedding bộ nhớ

OpenClaw có thể dùng OpenAI, hoặc một endpoint embedding tương thích OpenAI, cho việc lập chỉ mục memory_search và embedding truy vấn:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
Đối với các endpoint tương thích OpenAI yêu cầu nhãn embedding bất đối xứng, đặt queryInputTypedocumentInputType dưới memorySearch. OpenClaw chuyển tiếp chúng dưới dạng các trường yêu cầu input_type riêng cho nhà cung cấp: embedding truy vấn dùng queryInputType; các đoạn bộ nhớ được lập chỉ mục và lập chỉ mục theo lô dùng documentInputType. Xem Tham chiếu cấu hình bộ nhớ để có ví dụ đầy đủ.

Bắt đầu

Chọn phương thức xác thực bạn muốn và làm theo các bước thiết lập.
Phù hợp nhất cho: truy cập API trực tiếp và tính phí theo mức sử dụng.
1

Lấy khóa API của bạn

Tạo hoặc sao chép khóa API từ bảng điều khiển OpenAI Platform.
2

Chạy onboarding

openclaw onboard --auth-choice openai-api-key
Hoặc truyền khóa trực tiếp:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

Xác minh mô hình có sẵn

openclaw models list --provider openai

Tóm tắt tuyến

Tham chiếu mô hìnhCấu hình runtimeTuyếnXác thực
openai/gpt-5.5bỏ qua / agentRuntime.id: "pi"API OpenAI Platform trực tiếpOPENAI_API_KEY
openai/gpt-5.4-minibỏ qua / agentRuntime.id: "pi"API OpenAI Platform trực tiếpOPENAI_API_KEY
openai/gpt-5.5agentRuntime.id: "codex"Bộ khung app-server Codexapp-server Codex
openai/* là tuyến khóa API OpenAI trực tiếp trừ khi bạn buộc dùng rõ bộ khung app-server Codex. Dùng openai-codex/* cho OAuth Codex thông qua runner PI mặc định, hoặc dùng openai/gpt-5.5 với agentRuntime.id: "codex" để thực thi app-server Codex gốc.

Ví dụ cấu hình

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenClaw không cung cấp openai/gpt-5.3-codex-spark. Các yêu cầu API OpenAI trực tiếp từ chối mô hình đó, và danh mục Codex hiện tại cũng không cung cấp nó.

Xác thực app-server Codex gốc

Harness app-server Codex gốc dùng ref mô hình openai/* cùng với agentRuntime.id: "codex", nhưng xác thực của nó vẫn dựa trên tài khoản. OpenClaw chọn xác thực theo thứ tự này:
  1. Một hồ sơ xác thực OpenClaw openai-codex tường minh được liên kết với agent.
  2. Tài khoản hiện có của app-server, chẳng hạn như một phiên đăng nhập ChatGPT Codex CLI cục bộ.
  3. Chỉ với các lần khởi chạy app-server stdio cục bộ, CODEX_API_KEY, rồi OPENAI_API_KEY, khi app-server báo không có tài khoản và vẫn yêu cầu xác thực OpenAI.
Điều đó có nghĩa là phiên đăng nhập gói đăng ký ChatGPT/Codex cục bộ không bị thay thế chỉ vì tiến trình Gateway cũng có OPENAI_API_KEY cho các mô hình OpenAI trực tiếp hoặc embeddings. Fallback bằng khóa API env chỉ là đường dẫn stdio cục bộ không có tài khoản; nó không được gửi tới các kết nối app-server WebSocket. Khi một hồ sơ Codex kiểu gói đăng ký được chọn, OpenClaw cũng giữ CODEX_API_KEYOPENAI_API_KEY khỏi tiến trình con app-server stdio được sinh ra và gửi thông tin đăng nhập đã chọn qua RPC đăng nhập app-server.

Tạo hình ảnh

Plugin openai đi kèm đăng ký tạo hình ảnh qua công cụ image_generate. Nó hỗ trợ cả tạo hình ảnh bằng khóa API OpenAI và tạo hình ảnh bằng Codex OAuth qua cùng ref mô hình openai/gpt-image-2.
Khả năngKhóa API OpenAICodex OAuth
Ref mô hìnhopenai/gpt-image-2openai/gpt-image-2
Xác thựcOPENAI_API_KEYĐăng nhập OpenAI Codex OAuth
TransportOpenAI Images APIBackend Codex Responses
Số ảnh tối đa mỗi yêu cầu44
Chế độ chỉnh sửaĐã bật (tối đa 5 ảnh tham chiếu)Đã bật (tối đa 5 ảnh tham chiếu)
Ghi đè kích thướcĐược hỗ trợ, gồm kích thước 2K/4KĐược hỗ trợ, gồm kích thước 2K/4K
Tỷ lệ khung hình / độ phân giảiKhông chuyển tiếp tới OpenAI Images APIÁnh xạ sang kích thước được hỗ trợ khi an toàn
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
Xem Tạo hình ảnh để biết các tham số công cụ dùng chung, lựa chọn nhà cung cấp và hành vi chuyển dự phòng.
gpt-image-2 là mặc định cho cả tạo hình ảnh từ văn bản OpenAI và chỉnh sửa hình ảnh. gpt-image-1.5, gpt-image-1gpt-image-1-mini vẫn có thể dùng làm ghi đè mô hình tường minh. Dùng openai/gpt-image-1.5 cho đầu ra PNG/WebP nền trong suốt; API gpt-image-2 hiện tại từ chối background: "transparent". Với yêu cầu nền trong suốt, agent nên gọi image_generate với model: "openai/gpt-image-1.5", outputFormat: "png" hoặc "webp", và background: "transparent"; tùy chọn nhà cung cấp openai.background cũ vẫn được chấp nhận. OpenClaw cũng bảo vệ các route OpenAI công khai và OpenAI Codex OAuth bằng cách viết lại các yêu cầu nền trong suốt mặc định openai/gpt-image-2 thành gpt-image-1.5; Azure và các endpoint tùy chỉnh tương thích OpenAI giữ tên triển khai/mô hình đã cấu hình của chúng. Cùng thiết lập này cũng được cung cấp cho các lần chạy CLI không giao diện:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "A simple red circle sticker on a transparent background" \
  --json
Dùng cùng các cờ --output-format--background với openclaw infer image edit khi bắt đầu từ một tệp đầu vào. --openai-background vẫn có sẵn như một bí danh riêng cho OpenAI. Với các bản cài đặt Codex OAuth, giữ cùng ref openai/gpt-image-2. Khi một hồ sơ OAuth openai-codex được cấu hình, OpenClaw phân giải access token OAuth đã lưu đó và gửi yêu cầu hình ảnh qua backend Codex Responses. Nó không thử OPENAI_API_KEY trước hoặc âm thầm fallback sang khóa API cho yêu cầu đó. Cấu hình models.providers.openai tường minh với khóa API, URL cơ sở tùy chỉnh hoặc endpoint Azure khi bạn muốn route OpenAI Images API trực tiếp thay thế. Nếu endpoint hình ảnh tùy chỉnh đó nằm trên LAN/địa chỉ riêng đáng tin cậy, cũng đặt browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true; OpenClaw giữ các endpoint hình ảnh riêng tư/nội bộ tương thích OpenAI ở trạng thái bị chặn trừ khi có opt-in này. Tạo:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
Tạo PNG trong suốt:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
Chỉnh sửa:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536

Tạo video

Plugin openai đi kèm đăng ký tạo video qua công cụ video_generate.
Khả năngGiá trị
Mô hình mặc địnhopenai/sora-2
Chế độVăn bản thành video, hình ảnh thành video, chỉnh sửa một video
Đầu vào tham chiếu1 hình ảnh hoặc 1 video
Ghi đè kích thướcĐược hỗ trợ
Ghi đè khácaspectRatio, resolution, audio, watermark bị bỏ qua kèm cảnh báo công cụ
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
Xem Tạo video để biết các tham số công cụ dùng chung, lựa chọn nhà cung cấp và hành vi chuyển dự phòng.

Đóng góp prompt GPT-5

OpenClaw thêm một đóng góp prompt GPT-5 dùng chung cho các lần chạy thuộc họ GPT-5 trên nhiều nhà cung cấp. Nó áp dụng theo id mô hình, vì vậy openai-codex/gpt-5.5, openai/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 và các ref GPT-5 tương thích khác nhận cùng overlay. Các mô hình GPT-4.x cũ hơn thì không. Harness Codex gốc đi kèm dùng cùng hành vi GPT-5 và overlay Heartbeat qua hướng dẫn dành cho nhà phát triển app-server Codex, vì vậy các phiên openai/gpt-5.x bị buộc qua agentRuntime.id: "codex" giữ cùng hướng dẫn theo đến cùng và Heartbeat chủ động, ngay cả khi Codex sở hữu phần còn lại của prompt harness. Đóng góp GPT-5 thêm một hợp đồng hành vi có gắn thẻ cho việc duy trì persona, an toàn thực thi, kỷ luật công cụ, hình dạng đầu ra, kiểm tra hoàn thành và xác minh. Hành vi trả lời theo kênh và tin nhắn im lặng nằm trong prompt hệ thống OpenClaw dùng chung và chính sách gửi đi. Hướng dẫn GPT-5 luôn được bật cho các mô hình khớp. Lớp phong cách tương tác thân thiện tách riêng và có thể cấu hình.
Giá trịHiệu lực
"friendly" (mặc định)Bật lớp phong cách tương tác thân thiện
"on"Bí danh cho "friendly"
"off"Chỉ tắt lớp phong cách thân thiện
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
Giá trị không phân biệt chữ hoa chữ thường tại runtime, vì vậy "Off""off" đều tắt lớp phong cách thân thiện.
plugins.entries.openai.config.personality cũ vẫn được đọc làm fallback tương thích khi thiết lập agents.defaults.promptOverlays.gpt5.personality dùng chung chưa được đặt.

Giọng nói và lời nói

Plugin openai đi kèm đăng ký tổng hợp giọng nói cho bề mặt messages.tts.
Thiết lậpĐường dẫn cấu hìnhMặc định
Mô hìnhmessages.tts.providers.openai.modelgpt-4o-mini-tts
Giọngmessages.tts.providers.openai.voicecoral
Tốc độmessages.tts.providers.openai.speed(chưa đặt)
Hướng dẫnmessages.tts.providers.openai.instructions(chưa đặt, chỉ gpt-4o-mini-tts)
Định dạngmessages.tts.providers.openai.responseFormatopus cho ghi chú thoại, mp3 cho tệp
Khóa APImessages.tts.providers.openai.apiKeyFallback về OPENAI_API_KEY
URL cơ sởmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
Các mô hình có sẵn: gpt-4o-mini-tts, tts-1, tts-1-hd. Các giọng có sẵn: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
Đặt OPENAI_TTS_BASE_URL để ghi đè URL cơ sở TTS mà không ảnh hưởng endpoint API chat.
Plugin openai đi kèm đăng ký lời nói thành văn bản hàng loạt qua bề mặt phiên âm hiểu phương tiện của OpenClaw.
  • Mô hình mặc định: gpt-4o-transcribe
  • Endpoint: OpenAI REST /v1/audio/transcriptions
  • Đường dẫn đầu vào: tải lên tệp âm thanh multipart
  • Được OpenClaw hỗ trợ ở mọi nơi mà phiên âm âm thanh đầu vào dùng tools.media.audio, bao gồm các đoạn kênh thoại Discord và tệp đính kèm âm thanh của kênh
Để buộc dùng OpenAI cho phiên âm âm thanh đầu vào:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
Gợi ý ngôn ngữ và prompt được chuyển tiếp đến OpenAI khi được cung cấp bởi cấu hình phương tiện âm thanh dùng chung hoặc yêu cầu phiên âm theo từng lệnh gọi.
Plugin openai đi kèm đăng ký phiên âm thời gian thực cho Plugin Voice Call.
Cài đặtĐường dẫn cấu hìnhMặc định
Mô hìnhplugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
Ngôn ngữ...openai.language(chưa đặt)
Prompt...openai.prompt(chưa đặt)
Thời lượng im lặng...openai.silenceDurationMs800
Ngưỡng VAD...openai.vadThreshold0.5
Khóa API...openai.apiKeyDùng dự phòng OPENAI_API_KEY
Sử dụng kết nối WebSocket đến wss://api.openai.com/v1/realtime với âm thanh G.711 u-law (g711_ulaw / audio/pcmu). Nhà cung cấp phát trực tuyến này dành cho đường dẫn phiên âm thời gian thực của Voice Call; giọng nói Discord hiện ghi các đoạn ngắn và thay vào đó dùng đường dẫn phiên âm hàng loạt tools.media.audio.
Plugin openai đi kèm đăng ký giọng nói thời gian thực cho Plugin Voice Call.
Cài đặtĐường dẫn cấu hìnhMặc định
Mô hìnhplugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-1.5
Giọng nói...openai.voicealloy
Nhiệt độ...openai.temperature0.8
Ngưỡng VAD...openai.vadThreshold0.5
Thời lượng im lặng...openai.silenceDurationMs500
Khóa API...openai.apiKeyDùng dự phòng OPENAI_API_KEY
Hỗ trợ Azure OpenAI qua các khóa cấu hình azureEndpointazureDeployment cho các cầu nối thời gian thực phía backend. Hỗ trợ gọi công cụ hai chiều. Sử dụng định dạng âm thanh G.711 u-law.
Control UI Talk sử dụng các phiên thời gian thực trên trình duyệt OpenAI với bí mật ứng dụng khách tạm thời do Gateway cấp và trao đổi SDP WebRTC trực tiếp trên trình duyệt với OpenAI Realtime API. Việc xác minh trực tiếp của người bảo trì có sẵn bằng OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts; nhánh OpenAI cấp một bí mật ứng dụng khách trong Node, tạo một đề nghị SDP trình duyệt bằng phương tiện micro giả, gửi nó đến OpenAI, rồi áp dụng câu trả lời SDP mà không ghi nhật ký bí mật.

Điểm cuối Azure OpenAI

Nhà cung cấp openai đi kèm có thể nhắm đến một tài nguyên Azure OpenAI để tạo ảnh bằng cách ghi đè URL cơ sở. Trên đường dẫn tạo ảnh, OpenClaw phát hiện tên máy chủ Azure trên models.providers.openai.baseUrl và tự động chuyển sang dạng yêu cầu của Azure.
Giọng nói thời gian thực sử dụng một đường dẫn cấu hình riêng (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint) và không bị ảnh hưởng bởi models.providers.openai.baseUrl. Xem accordion Giọng nói thời gian thực trong Giọng nói và lời nói để biết các cài đặt Azure của nó.
Dùng Azure OpenAI khi:
  • Bạn đã có gói đăng ký, hạn mức hoặc thỏa thuận doanh nghiệp Azure OpenAI
  • Bạn cần lưu trú dữ liệu theo khu vực hoặc các biện pháp kiểm soát tuân thủ mà Azure cung cấp
  • Bạn muốn giữ lưu lượng bên trong một tenant Azure hiện có

Cấu hình

Để tạo ảnh bằng Azure thông qua nhà cung cấp openai đi kèm, trỏ models.providers.openai.baseUrl đến tài nguyên Azure của bạn và đặt apiKey thành khóa Azure OpenAI (không phải khóa OpenAI Platform):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw nhận diện các hậu tố máy chủ Azure này cho tuyến tạo ảnh Azure:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
Đối với yêu cầu tạo ảnh trên máy chủ Azure đã nhận diện, OpenClaw:
  • Gửi header api-key thay vì Authorization: Bearer
  • Sử dụng đường dẫn theo phạm vi triển khai (/openai/deployments/{deployment}/...)
  • Thêm ?api-version=... vào mỗi yêu cầu
  • Sử dụng thời gian chờ yêu cầu mặc định 600 giây cho các lệnh gọi tạo ảnh Azure. Giá trị timeoutMs theo từng lệnh gọi vẫn ghi đè mặc định này.
Các URL cơ sở khác (OpenAI công khai, proxy tương thích OpenAI) giữ nguyên dạng yêu cầu ảnh OpenAI tiêu chuẩn.
Định tuyến Azure cho đường dẫn tạo ảnh của nhà cung cấp openai yêu cầu OpenClaw 2026.4.22 trở lên. Các phiên bản cũ xử lý mọi openai.baseUrl tùy chỉnh giống như điểm cuối OpenAI công khai và sẽ thất bại với các triển khai ảnh Azure.

Phiên bản API

Đặt AZURE_OPENAI_API_VERSION để cố định một phiên bản Azure preview hoặc GA cụ thể cho đường dẫn tạo ảnh Azure:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
Mặc định là 2024-12-01-preview khi biến này chưa được đặt.

Tên mô hình là tên triển khai

Azure OpenAI gắn mô hình với triển khai. Đối với các yêu cầu tạo ảnh Azure được định tuyến qua nhà cung cấp openai đi kèm, trường model trong OpenClaw phải là tên triển khai Azure bạn đã cấu hình trong cổng Azure, không phải id mô hình OpenAI công khai. Nếu bạn tạo một triển khai tên là gpt-image-2-prod phục vụ gpt-image-2:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
Quy tắc tên triển khai tương tự áp dụng cho các lệnh gọi tạo ảnh được định tuyến qua nhà cung cấp openai đi kèm.

Tính khả dụng theo khu vực

Tạo ảnh Azure hiện chỉ khả dụng ở một tập hợp con các khu vực (ví dụ eastus2, swedencentral, polandcentral, westus3, uaenorth). Kiểm tra danh sách khu vực hiện tại của Microsoft trước khi tạo triển khai, và xác nhận mô hình cụ thể được cung cấp trong khu vực của bạn.

Khác biệt về tham số

Azure OpenAI và OpenAI công khai không phải lúc nào cũng chấp nhận cùng các tham số ảnh. Azure có thể từ chối các tùy chọn mà OpenAI công khai cho phép (ví dụ một số giá trị background trên gpt-image-2) hoặc chỉ mở chúng trên các phiên bản mô hình cụ thể. Những khác biệt này đến từ Azure và mô hình nền tảng, không phải OpenClaw. Nếu một yêu cầu Azure thất bại với lỗi xác thực, hãy kiểm tra tập tham số được hỗ trợ bởi triển khai và phiên bản API cụ thể của bạn trong cổng Azure.
Azure OpenAI sử dụng transport gốc và hành vi tương thích nhưng không nhận các header quy kết ẩn của OpenClaw — xem accordion Tuyến gốc so với tuyến tương thích OpenAI trong Cấu hình nâng cao.Đối với lưu lượng chat hoặc Responses trên Azure (ngoài tạo ảnh), hãy dùng luồng onboarding hoặc cấu hình nhà cung cấp Azure chuyên dụng — chỉ riêng openai.baseUrl không áp dụng dạng API/xác thực của Azure. Có một nhà cung cấp azure-openai-responses/* riêng; xem accordion Compaction phía máy chủ bên dưới.

Cấu hình nâng cao

OpenClaw ưu tiên WebSocket với dự phòng SSE ("auto") cho cả openai/*openai-codex/*.Ở chế độ "auto", OpenClaw:
  • Thử lại một lỗi WebSocket sớm trước khi chuyển dự phòng sang SSE
  • Sau một lỗi, đánh dấu WebSocket là suy giảm trong khoảng 60 giây và dùng SSE trong thời gian hạ nhiệt
  • Đính kèm các header danh tính phiên và lượt ổn định cho các lần thử lại và kết nối lại
  • Chuẩn hóa bộ đếm sử dụng (input_tokens / prompt_tokens) giữa các biến thể transport
Giá trịHành vi
"auto" (mặc định)WebSocket trước, SSE dự phòng
"sse"Chỉ buộc dùng SSE
"websocket"Chỉ buộc dùng WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
        "openai-codex/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
Tài liệu OpenAI liên quan:
OpenClaw bật khởi động nóng WebSocket theo mặc định cho openai/*openai-codex/* để giảm độ trễ lượt đầu tiên.
// Disable warm-up
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw cung cấp một công tắc chế độ nhanh dùng chung cho openai/*openai-codex/*:
  • Chat/UI: /fast status|on|off
  • Cấu hình: agents.defaults.models["<provider>/<model>"].params.fastMode
Khi bật, OpenClaw ánh xạ chế độ nhanh sang xử lý ưu tiên của OpenAI (service_tier = "priority"). Các giá trị service_tier hiện có được giữ nguyên, và chế độ nhanh không viết lại reasoning hoặc text.verbosity.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
Ghi đè phiên thắng cấu hình. Xóa ghi đè phiên trong Sessions UI đưa phiên trở lại mặc định đã cấu hình.
API của OpenAI cung cấp xử lý ưu tiên qua service_tier. Đặt theo từng mô hình trong OpenClaw:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
Giá trị được hỗ trợ: auto, default, flex, priority.
serviceTier chỉ được chuyển tiếp đến các điểm cuối OpenAI gốc (api.openai.com) và điểm cuối Codex gốc (chatgpt.com/backend-api). Nếu bạn định tuyến một trong hai nhà cung cấp qua proxy, OpenClaw giữ nguyên service_tier.
Đối với các mô hình OpenAI Responses trực tiếp (openai/* trên api.openai.com), bộ bao luồng Pi-harness của Plugin OpenAI tự động bật Compaction phía máy chủ:
  • Buộc store: true (trừ khi tương thích mô hình đặt supportsStore: false)
  • Chèn context_management: [{ type: "compaction", compact_threshold: ... }]
  • compact_threshold mặc định: 70% của contextWindow (hoặc 80000 khi không có)
Điều này áp dụng cho đường dẫn Pi harness tích hợp sẵn và cho các hook nhà cung cấp OpenAI được dùng bởi các lần chạy nhúng. Harness máy chủ ứng dụng Codex gốc tự quản lý ngữ cảnh qua Codex và được cấu hình riêng bằng agents.defaults.agentRuntime.id.
Hữu ích cho các điểm cuối tương thích như Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction chỉ kiểm soát việc chèn context_management. Các mô hình OpenAI Responses trực tiếp vẫn buộc dùng store: true trừ khi compat đặt supportsStore: false.
Với các lượt chạy họ GPT-5 trên openai/*, OpenClaw có thể dùng một hợp đồng thực thi nhúng chặt chẽ hơn:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
Với strict-agentic, OpenClaw:
  • Không còn xem một lượt chỉ lập kế hoạch là tiến triển thành công khi có thể thực hiện một hành động công cụ
  • Thử lại lượt đó với điều hướng hành động ngay
  • Tự động bật update_plan cho công việc đáng kể
  • Hiển thị trạng thái bị chặn rõ ràng nếu mô hình tiếp tục lập kế hoạch mà không hành động
Chỉ áp dụng cho các lượt chạy OpenAI và họ Codex GPT-5. Các nhà cung cấp khác và họ mô hình cũ hơn giữ hành vi mặc định.
OpenClaw xử lý các điểm cuối OpenAI trực tiếp, Codex và Azure OpenAI khác với các proxy /v1 tương thích OpenAI chung:Tuyến native (openai/*, Azure OpenAI):
  • Chỉ giữ reasoning: { effort: "none" } cho các mô hình hỗ trợ effort none của OpenAI
  • Bỏ qua reasoning đã tắt đối với các mô hình hoặc proxy từ chối reasoning.effort: "none"
  • Mặc định đặt schema công cụ ở chế độ nghiêm ngặt
  • Chỉ gắn header ghi nhận ẩn trên các máy chủ native đã xác minh
  • Giữ định dạng yêu cầu chỉ dành cho OpenAI (service_tier, store, reasoning-compat, gợi ý prompt-cache)
Tuyến proxy/tương thích:
  • Dùng hành vi compat lỏng hơn
  • Loại bỏ store của Completions khỏi payload openai-completions không phải native
  • Chấp nhận JSON truyền qua params.extra_body/params.extraBody nâng cao cho các proxy Completions tương thích OpenAI
  • Chấp nhận params.chat_template_kwargs cho các proxy Completions tương thích OpenAI như vLLM
  • Không buộc schema công cụ nghiêm ngặt hoặc header chỉ dành cho native
Azure OpenAI dùng truyền tải native và hành vi compat nhưng không nhận các header ghi nhận ẩn.

Liên quan

Chọn mô hình

Chọn nhà cung cấp, tham chiếu mô hình và hành vi chuyển đổi dự phòng.

Tạo hình ảnh

Tham số công cụ hình ảnh dùng chung và lựa chọn nhà cung cấp.

Tạo video

Tham số công cụ video dùng chung và lựa chọn nhà cung cấp.

OAuth và xác thực

Chi tiết xác thực và quy tắc tái sử dụng thông tin đăng nhập.