OpenAI
OpenAI menyediakan API pengembang untuk model GPT. Codex mendukung sign-in ChatGPT untuk akses berbasis langganan atau sign-in API key untuk akses berbasis penggunaan. Codex cloud memerlukan sign-in ChatGPT. OpenAI secara eksplisit mendukung penggunaan OAuth langganan dalam alat/alur kerja eksternal seperti OpenClaw.Gaya interaksi default
OpenClaw menambahkan overlay prompt kecil khusus OpenAI secara default untuk eksekusiopenai/* dan openai-codex/*. Overlay ini menjaga asisten tetap hangat,
kolaboratif, ringkas, dan langsung tanpa menggantikan prompt sistem OpenClaw
dasar.
Key konfigurasi:
plugins.entries.openai.config.personalityOverlay
Nilai yang diizinkan:
"friendly": default; aktifkan overlay khusus OpenAI."off": nonaktifkan overlay dan gunakan hanya prompt dasar OpenClaw.
- Berlaku untuk model
openai/*. - Berlaku untuk model
openai-codex/*. - Tidak memengaruhi provider lain.
Nonaktifkan overlay prompt OpenAI
Jika Anda lebih suka prompt dasar OpenClaw tanpa modifikasi, nonaktifkan overlay:Opsi A: API key OpenAI (OpenAI Platform)
Terbaik untuk: akses API langsung dan penagihan berbasis penggunaan. Dapatkan API key Anda dari dashboard OpenAI.Penyiapan CLI
Cuplikan konfigurasi
gpt-5.4 dan gpt-5.4-pro untuk penggunaan
API OpenAI langsung. OpenClaw meneruskan keduanya melalui jalur Responses openai/*.
OpenClaw sengaja menyembunyikan baris usang openai/gpt-5.3-codex-spark,
karena panggilan API OpenAI langsung menolaknya dalam traffic live.
OpenClaw tidak mengekspos openai/gpt-5.3-codex-spark pada jalur API OpenAI langsung.
pi-ai masih menyediakan baris bawaan untuk model itu, tetapi permintaan API OpenAI live
saat ini menolaknya. Spark diperlakukan sebagai khusus Codex di OpenClaw.
Opsi B: Langganan OpenAI Code (Codex)
Terbaik untuk: menggunakan akses langganan ChatGPT/Codex alih-alih API key. Codex cloud memerlukan sign-in ChatGPT, sedangkan Codex CLI mendukung sign-in ChatGPT atau API key.Penyiapan CLI (Codex OAuth)
Cuplikan konfigurasi (langganan Codex)
gpt-5.4 sebagai model Codex saat ini. OpenClaw
memetakannya ke openai-codex/gpt-5.4 untuk penggunaan OAuth ChatGPT/Codex.
Jika onboarding menggunakan ulang login Codex CLI yang sudah ada, kredensial tersebut tetap
dikelola oleh Codex CLI. Saat kedaluwarsa, OpenClaw membaca ulang sumber Codex eksternal
terlebih dahulu dan, ketika provider dapat menyegarkannya, menulis kembali kredensial yang telah diperbarui
ke penyimpanan Codex alih-alih mengambil alih kepemilikannya dalam salinan terpisah khusus OpenClaw.
Jika akun Codex Anda memiliki hak untuk Codex Spark, OpenClaw juga mendukung:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark.
OpenClaw juga mempertahankan openai-codex/gpt-5.3-codex-spark ketika pi-ai
menemukannya. Perlakukan ini sebagai bergantung pada entitlement dan eksperimental: Codex Spark
terpisah dari /fast GPT-5.4, dan ketersediaannya bergantung pada akun Codex /
ChatGPT yang sedang sign-in.
Batas context window Codex
OpenClaw memperlakukan metadata model Codex dan batas konteks runtime sebagai nilai yang terpisah. Untukopenai-codex/gpt-5.4:
contextWindownative:1050000- batas runtime
contextTokensdefault:272000
models.providers.<provider>.models[].contextTokens:
contextWindow hanya saat Anda mendeklarasikan atau menimpa metadata model
native. Gunakan contextTokens saat Anda ingin membatasi anggaran konteks runtime.
Default transport
OpenClaw menggunakanpi-ai untuk streaming model. Untuk openai/* maupun
openai-codex/*, transport default adalah "auto" (WebSocket terlebih dahulu, lalu fallback
ke SSE).
Dalam mode "auto", OpenClaw juga mencoba ulang satu kegagalan WebSocket awal yang dapat dicoba ulang
sebelum fallback ke SSE. Mode "websocket" yang dipaksakan tetap menampilkan error transport
secara langsung alih-alih menyembunyikannya di balik fallback.
Setelah kegagalan WebSocket saat koneksi atau awal turn dalam mode "auto", OpenClaw menandai
jalur WebSocket sesi itu sebagai terdegradasi selama sekitar 60 detik dan mengirim
turn berikutnya melalui SSE selama masa cool-down alih-alih berpindah-pindah
antara transport.
Untuk endpoint keluarga OpenAI native (openai/*, openai-codex/*, dan Azure
OpenAI Responses), OpenClaw juga melampirkan status identitas sesi dan turn yang stabil
ke permintaan agar retry, reconnect, dan fallback SSE tetap selaras dengan identitas
percakapan yang sama. Pada rute keluarga OpenAI native, ini mencakup header identitas request
sesi/turn yang stabil plus metadata transport yang cocok.
OpenClaw juga menormalkan penghitung penggunaan OpenAI lintas varian transport sebelum
mencapai permukaan sesi/status. Traffic Responses OpenAI/Codex native dapat
melaporkan penggunaan sebagai input_tokens / output_tokens atau
prompt_tokens / completion_tokens; OpenClaw memperlakukan keduanya sebagai penghitung input
dan output yang sama untuk /status, /usage, dan log sesi. Saat traffic
WebSocket native menghilangkan total_tokens (atau melaporkan 0), OpenClaw melakukan fallback ke
total input + output yang telah dinormalisasi agar tampilan sesi/status tetap terisi.
Anda dapat menetapkan agents.defaults.models.<provider/model>.params.transport:
"sse": paksa SSE"websocket": paksa WebSocket"auto": coba WebSocket, lalu fallback ke SSE
openai/* (Responses API), OpenClaw juga mengaktifkan warm-up WebSocket secara
default (openaiWsWarmup: true) saat transport WebSocket digunakan.
Dokumentasi OpenAI terkait:
Warm-up WebSocket OpenAI
Dokumentasi OpenAI menjelaskan warm-up sebagai opsional. OpenClaw mengaktifkannya secara default untukopenai/* untuk mengurangi latensi turn pertama saat menggunakan transport WebSocket.
Nonaktifkan warm-up
Aktifkan warm-up secara eksplisit
Pemrosesan prioritas OpenAI dan Codex
API OpenAI mengekspos pemrosesan prioritas melaluiservice_tier=priority. Di
OpenClaw, tetapkan agents.defaults.models["<provider>/<model>"].params.serviceTier
untuk meneruskan field tersebut pada endpoint Responses OpenAI/Codex native.
auto, default, flex, dan priority.
OpenClaw meneruskan params.serviceTier ke permintaan Responses openai/*
langsung maupun permintaan Codex Responses openai-codex/* saat model tersebut mengarah
ke endpoint OpenAI/Codex native.
Perilaku penting:
openai/*langsung harus menargetkanapi.openai.comopenai-codex/*harus menargetkanchatgpt.com/backend-api- jika Anda merutekan salah satu provider melalui base URL atau proxy lain, OpenClaw membiarkan
service_tierapa adanya
Mode cepat OpenAI
OpenClaw mengekspos toggle mode cepat bersama untuk sesiopenai/* dan
openai-codex/*:
- Chat/UI:
/fast status|on|off - Konfigurasi:
agents.defaults.models["<provider>/<model>"].params.fastMode
- panggilan Responses
openai/*langsung keapi.openai.commengirimservice_tier = "priority" - panggilan Responses
openai-codex/*kechatgpt.com/backend-apijuga mengirimservice_tier = "priority" - nilai payload
service_tieryang sudah ada dipertahankan - mode cepat tidak menulis ulang
reasoningatautext.verbosity
Rute OpenAI native versus yang kompatibel dengan OpenAI
OpenClaw memperlakukan endpoint OpenAI, Codex, dan Azure OpenAI langsung secara berbeda dibanding proxy/v1 generik yang kompatibel dengan OpenAI:
- rute
openai/*,openai-codex/*, dan Azure OpenAI native mempertahankanreasoning: { effort: "none" }saat Anda secara eksplisit menonaktifkan reasoning - rute keluarga OpenAI native menggunakan mode strict untuk tool schema secara default
- header atribusi OpenClaw tersembunyi (
originator,version, danUser-Agent) hanya dilampirkan pada host OpenAI native yang terverifikasi (api.openai.com) dan host Codex native (chatgpt.com/backend-api) - rute OpenAI/Codex native mempertahankan pembentukan request khusus OpenAI seperti
service_tier, Responsesstore, payload reasoning-compat OpenAI, dan petunjuk prompt-cache - rute gaya proxy yang kompatibel dengan OpenAI mempertahankan perilaku compat yang lebih longgar dan tidak memaksakan tool schema strict, pembentukan request khusus native, atau header atribusi OpenAI/Codex tersembunyi
/v1 pihak ketiga.
Pemadatan sisi server OpenAI Responses
Untuk model OpenAI Responses langsung (openai/* menggunakan api: "openai-responses" dengan
baseUrl di api.openai.com), OpenClaw kini secara otomatis mengaktifkan petunjuk payload
pemadatan sisi server OpenAI:
- Memaksa
store: true(kecuali compat model menetapkansupportsStore: false) - Menyuntikkan
context_management: [{ type: "compaction", compact_threshold: ... }]
compact_threshold adalah 70% dari contextWindow model (atau 80000
jika tidak tersedia).
Aktifkan pemadatan sisi server secara eksplisit
Gunakan ini saat Anda ingin memaksa injeksicontext_management pada model
Responses yang kompatibel (misalnya Azure OpenAI Responses):
Aktifkan dengan ambang batas kustom
Nonaktifkan pemadatan sisi server
responsesServerCompaction hanya mengontrol injeksi context_management.
Model OpenAI Responses langsung tetap memaksa store: true kecuali compat menetapkan
supportsStore: false.
Catatan
- Referensi model selalu menggunakan
provider/model(lihat /concepts/models). - Detail autentikasi + aturan penggunaan ulang ada di /concepts/oauth.