OpenAI
OpenAI menyediakan API pengembang untuk model GPT. Codex mendukung masuk dengan ChatGPT untuk akses langganan atau masuk dengan API key untuk akses berbasis penggunaan. Codex cloud memerlukan masuk dengan ChatGPT. OpenAI secara eksplisit mendukung penggunaan OAuth langganan di alat/alur kerja eksternal seperti OpenClaw.Gaya interaksi default
OpenClaw dapat menambahkan overlay prompt kecil khusus OpenAI untuk eksekusiopenai/* dan
openai-codex/*. Secara default, overlay ini membuat asisten tetap hangat,
kolaboratif, ringkas, langsung, dan sedikit lebih ekspresif secara emosional
tanpa menggantikan prompt sistem dasar OpenClaw. Overlay yang ramah ini juga
mengizinkan emoji sesekali ketika terasa alami, sambil tetap menjaga
output secara keseluruhan tetap ringkas.
Kunci config:
plugins.entries.openai.config.personality
Nilai yang diizinkan:
"friendly": default; aktifkan overlay khusus OpenAI."on": alias untuk"friendly"."off": nonaktifkan overlay dan gunakan hanya prompt dasar OpenClaw.
- Berlaku untuk model
openai/*. - Berlaku untuk model
openai-codex/*. - Tidak memengaruhi provider lain.
"friendly" secara eksplisit jika Anda ingin itu
bertahan dari perubahan config lokal di masa mendatang:
Nonaktifkan overlay prompt OpenAI
Jika Anda menginginkan prompt dasar OpenClaw yang tidak dimodifikasi, set overlay ke"off":
"Off" tetap menonaktifkan overlay ramah.
Opsi A: API key OpenAI (OpenAI Platform)
Paling cocok untuk: akses API langsung dan penagihan berbasis penggunaan. Dapatkan API key Anda dari dashboard OpenAI. Ringkasan rute:openai/gpt-5.4= rute API OpenAI Platform langsung- Memerlukan
OPENAI_API_KEY(atau config provider OpenAI yang setara) - Di OpenClaw, masuk ChatGPT/Codex dirutekan melalui
openai-codex/*, bukanopenai/*
Setup CLI
Cuplikan config
gpt-5.4 dan gpt-5.4-pro untuk penggunaan
API OpenAI langsung. OpenClaw meneruskan keduanya melalui jalur openai/* Responses.
OpenClaw dengan sengaja menyembunyikan baris openai/gpt-5.3-codex-spark yang sudah usang,
karena panggilan API OpenAI langsung menolaknya dalam traffic langsung.
OpenClaw tidak mengekspos openai/gpt-5.3-codex-spark pada jalur API OpenAI
langsung. pi-ai masih mengirimkan baris bawaan untuk model itu, tetapi permintaan API OpenAI langsung
saat ini menolaknya. Spark diperlakukan hanya untuk Codex di OpenClaw.
Pembuatan gambar
Pluginopenai bawaan juga mendaftarkan pembuatan gambar melalui tool bersama
image_generate.
- Model gambar default:
openai/gpt-image-1 - Hasilkan: hingga 4 gambar per permintaan
- Mode edit: aktif, hingga 5 gambar referensi
- Mendukung
size - Catatan khusus OpenAI saat ini: OpenClaw belum meneruskan override
aspectRatioatauresolutionke OpenAI Images API saat ini
Pembuatan video
Pluginopenai bawaan juga mendaftarkan pembuatan video melalui tool bersama
video_generate.
- Model video default:
openai/sora-2 - Mode: text-to-video, image-to-video, dan alur referensi/edit video tunggal
- Batas saat ini: 1 gambar atau 1 input referensi video
- Catatan khusus OpenAI saat ini: OpenClaw saat ini hanya meneruskan override
sizeuntuk pembuatan video OpenAI native. Override opsional yang tidak didukung sepertiaspectRatio,resolution,audio, danwatermarkdiabaikan dan dilaporkan kembali sebagai peringatan tool.
Opsi B: langganan OpenAI Code (Codex)
Paling cocok untuk: menggunakan akses langganan ChatGPT/Codex alih-alih API key. Codex cloud memerlukan masuk dengan ChatGPT, sedangkan Codex CLI mendukung masuk dengan ChatGPT atau API key. Ringkasan rute:openai-codex/gpt-5.4= rute OAuth ChatGPT/Codex- Menggunakan masuk dengan ChatGPT/Codex, bukan API key OpenAI Platform langsung
- Batas di sisi provider untuk
openai-codex/*dapat berbeda dari pengalaman web/aplikasi ChatGPT
Setup CLI (Codex OAuth)
Cuplikan config (langganan Codex)
gpt-5.4 sebagai model Codex saat ini. OpenClaw
memetakan itu ke openai-codex/gpt-5.4 untuk penggunaan OAuth ChatGPT/Codex.
Rute ini sengaja dipisahkan dari openai/gpt-5.4. Jika Anda ingin jalur API OpenAI Platform
langsung, gunakan openai/* dengan API key. Jika Anda ingin
masuk dengan ChatGPT/Codex, gunakan openai-codex/*.
Jika onboarding menggunakan kembali login Codex CLI yang sudah ada, kredensial tersebut tetap
dikelola oleh Codex CLI. Saat kedaluwarsa, OpenClaw membaca ulang sumber Codex eksternal
terlebih dahulu dan, ketika provider dapat menyegarkannya, menulis kembali kredensial yang disegarkan
ke penyimpanan Codex alih-alih mengambil alih kepemilikan dalam salinan terpisah khusus OpenClaw.
Jika akun Codex Anda memiliki hak atas Codex Spark, OpenClaw juga mendukung:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark.
OpenClaw juga mempertahankan openai-codex/gpt-5.3-codex-spark ketika pi-ai
menemukannya. Perlakukan ini sebagai bergantung pada entitlement dan eksperimental: Codex Spark terpisah
dari GPT-5.4 /fast, dan ketersediaannya bergantung pada akun Codex /
ChatGPT yang sedang masuk.
Batas jendela konteks Codex
OpenClaw memperlakukan metadata model Codex dan batas konteks runtime sebagai nilai yang terpisah. Untukopenai-codex/gpt-5.4:
contextWindownative:1050000- batas
contextTokensruntime default:272000
models.providers.<provider>.models[].contextTokens:
contextWindow hanya ketika Anda mendeklarasikan atau mengganti metadata model
native. Gunakan contextTokens ketika Anda ingin membatasi anggaran konteks runtime.
Default transport
OpenClaw menggunakanpi-ai untuk streaming model. Untuk openai/* dan
openai-codex/*, transport default adalah "auto" (WebSocket-first, lalu fallback
SSE).
Dalam mode "auto", OpenClaw juga mencoba ulang satu kegagalan WebSocket awal yang dapat dicoba ulang
sebelum fallback ke SSE. Mode "websocket" yang dipaksakan tetap menampilkan error transport
secara langsung alih-alih menyembunyikannya di balik fallback.
Setelah kegagalan WebSocket saat koneksi atau giliran awal dalam mode "auto", OpenClaw menandai
jalur WebSocket sesi itu sebagai terdegradasi selama sekitar 60 detik dan mengirim
giliran berikutnya melalui SSE selama masa cooldown alih-alih terus berpindah
antartransport.
Untuk endpoint keluarga OpenAI native (openai/*, openai-codex/*, dan Azure
OpenAI Responses), OpenClaw juga melampirkan status identitas sesi dan giliran yang stabil
ke permintaan agar retry, reconnect, dan fallback SSE tetap selaras dengan
identitas percakapan yang sama. Pada rute keluarga OpenAI native ini, hal ini mencakup
header identitas permintaan sesi/giliran yang stabil plus metadata transport yang sesuai.
OpenClaw juga menormalisasi penghitung penggunaan OpenAI di seluruh varian transport sebelum
mencapai permukaan sesi/status. Traffic Responses OpenAI/Codex native dapat
melaporkan penggunaan sebagai input_tokens / output_tokens atau
prompt_tokens / completion_tokens; OpenClaw memperlakukan keduanya sebagai penghitung input
dan output yang sama untuk /status, /usage, dan log sesi. Ketika traffic
WebSocket native tidak menyertakan total_tokens (atau melaporkan 0), OpenClaw fallback ke
total input + output yang telah dinormalisasi agar tampilan sesi/status tetap terisi.
Anda dapat menyetel agents.defaults.models.<provider/model>.params.transport:
"sse": paksa SSE"websocket": paksa WebSocket"auto": coba WebSocket, lalu fallback ke SSE
openai/* (Responses API), OpenClaw juga mengaktifkan warm-up WebSocket secara default
(openaiWsWarmup: true) saat transport WebSocket digunakan.
Dokumentasi OpenAI terkait:
Warm-up WebSocket OpenAI
Dokumentasi OpenAI menjelaskan warm-up sebagai opsional. OpenClaw mengaktifkannya secara default untukopenai/* guna mengurangi latensi giliran pertama saat menggunakan transport WebSocket.
Nonaktifkan warm-up
Aktifkan warm-up secara eksplisit
Pemrosesan prioritas OpenAI dan Codex
API OpenAI mengekspos pemrosesan prioritas melaluiservice_tier=priority. Di
OpenClaw, set agents.defaults.models["<provider>/<model>"].params.serviceTier
untuk meneruskan field tersebut pada endpoint Responses OpenAI/Codex native.
auto, default, flex, dan priority.
OpenClaw meneruskan params.serviceTier ke permintaan Responses openai/*
langsung dan permintaan Codex Responses openai-codex/* ketika model tersebut mengarah
ke endpoint OpenAI/Codex native.
Perilaku penting:
openai/*langsung harus menargetkanapi.openai.comopenai-codex/*harus menargetkanchatgpt.com/backend-api- jika Anda merutekan salah satu provider melalui base URL atau proxy lain, OpenClaw membiarkan
service_tierapa adanya
Mode cepat OpenAI
OpenClaw mengekspos toggle mode cepat bersama untuk sesiopenai/* dan
openai-codex/*:
- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
- panggilan Responses
openai/*langsung keapi.openai.commengirimservice_tier = "priority" - panggilan Responses
openai-codex/*kechatgpt.com/backend-apijuga mengirimservice_tier = "priority" - nilai
service_tierpayload yang sudah ada dipertahankan - mode cepat tidak menulis ulang
reasoningatautext.verbosity
- kirim
/fast ondalam sesi yang menggunakanopenai/gpt-5.4atauopenai-codex/gpt-5.4 - atau set
agents.defaults.models["openai/gpt-5.4"].params.fastMode = true - jika Anda juga menggunakan Codex OAuth, set
agents.defaults.models["openai-codex/gpt-5.4"].params.fastMode = truejuga
OpenAI native versus rute yang kompatibel dengan OpenAI
OpenClaw memperlakukan endpoint OpenAI, Codex, dan Azure OpenAI langsung secara berbeda dari proxy/v1 generik yang kompatibel dengan OpenAI:
- rute
openai/*,openai-codex/*, dan Azure OpenAI native mempertahankanreasoning: { effort: "none" }apa adanya saat Anda secara eksplisit menonaktifkan reasoning - rute keluarga OpenAI native menggunakan mode strict untuk skema tool secara default
- header atribusi OpenClaw tersembunyi (
originator,version, danUser-Agent) hanya dilampirkan pada host OpenAI native yang terverifikasi (api.openai.com) dan host Codex native (chatgpt.com/backend-api) - rute OpenAI/Codex native mempertahankan pembentukan permintaan khusus OpenAI seperti
service_tier, Responsesstore, payload kompatibilitas reasoning OpenAI, dan petunjuk prompt-cache - rute bergaya proxy yang kompatibel dengan OpenAI mempertahankan perilaku kompatibilitas yang lebih longgar dan tidak memaksakan skema tool strict, pembentukan permintaan khusus native, atau header atribusi OpenAI/Codex tersembunyi
/v1 pihak ketiga.
Pemadatan sisi server OpenAI Responses
Untuk model OpenAI Responses langsung (openai/* menggunakan api: "openai-responses" dengan
baseUrl pada api.openai.com), OpenClaw sekarang secara otomatis mengaktifkan petunjuk payload
pemadatan sisi server OpenAI:
- Memaksa
store: true(kecuali kompatibilitas model menetapkansupportsStore: false) - Menyuntikkan
context_management: [{ type: "compaction", compact_threshold: ... }]
compact_threshold adalah 70% dari contextWindow model (atau 80000
jika tidak tersedia).
Aktifkan pemadatan sisi server secara eksplisit
Gunakan ini ketika Anda ingin memaksa injeksicontext_management pada model
Responses yang kompatibel, misalnya Azure OpenAI Responses:
Aktifkan dengan ambang kustom
Nonaktifkan pemadatan sisi server
responsesServerCompaction hanya mengontrol injeksi context_management.
Model OpenAI Responses langsung tetap memaksa store: true kecuali kompatibilitas menetapkan
supportsStore: false.
Catatan
- Referensi model selalu menggunakan
provider/model(lihat /concepts/models). - Detail auth + aturan penggunaan ulang ada di /concepts/oauth.