OpenAI
OpenAI fornisce API per sviluppatori per i modelli GPT. Codex supporta il login con ChatGPT per l’accesso in abbonamento oppure il login con API key per l’accesso basato sul consumo. Codex cloud richiede il login con ChatGPT. OpenAI supporta esplicitamente l’uso di OAuth in abbonamento in strumenti/flussi di lavoro esterni come OpenClaw.Stile di interazione predefinito
OpenClaw aggiunge per impostazione predefinita un piccolo overlay di prompt specifico per OpenAI sia alle esecuzioniopenai/* sia a quelle openai-codex/*. L’overlay mantiene l’assistente pronto,
collaborativo, conciso e diretto senza sostituire il prompt di sistema di base di OpenClaw.
Chiave di configurazione:
plugins.entries.openai.config.personalityOverlay
Valori consentiti:
"friendly": predefinito; abilita l’overlay specifico per OpenAI."off": disabilita l’overlay e usa solo il prompt di base di OpenClaw.
- Si applica ai modelli
openai/*. - Si applica ai modelli
openai-codex/*. - Non influisce sugli altri provider.
Disabilitare l’overlay di prompt OpenAI
Se preferisci il prompt di base di OpenClaw non modificato, disattiva l’overlay:Opzione A: API key OpenAI (OpenAI Platform)
Ideale per: accesso API diretto e fatturazione basata sull’utilizzo. Ottieni la tua API key dalla dashboard OpenAI.Configurazione CLI
Esempio di configurazione
gpt-5.4 e gpt-5.4-pro per l’uso diretto
delle API OpenAI. OpenClaw inoltra entrambi attraverso il percorso openai/* Responses.
OpenClaw sopprime intenzionalmente la riga obsoleta openai/gpt-5.3-codex-spark,
perché le chiamate API OpenAI dirette la rifiutano nel traffico live.
OpenClaw non espone openai/gpt-5.3-codex-spark nel percorso API OpenAI diretto.
pi-ai include ancora una riga integrata per quel modello, ma le richieste API OpenAI live
attualmente la rifiutano. In OpenClaw Spark viene trattato come solo Codex.
Opzione B: abbonamento OpenAI Code (Codex)
Ideale per: usare l’accesso in abbonamento ChatGPT/Codex invece di un’API key. Codex cloud richiede il login con ChatGPT, mentre la CLI Codex supporta il login con ChatGPT o con API key.Configurazione CLI (Codex OAuth)
Esempio di configurazione (abbonamento Codex)
gpt-5.4 come modello Codex attuale. OpenClaw
lo mappa a openai-codex/gpt-5.4 per l’uso con OAuth ChatGPT/Codex.
Se l’onboarding riutilizza un login Codex CLI esistente, tali credenziali restano
gestite da Codex CLI. Alla scadenza, OpenClaw rilegge prima la sorgente Codex esterna
e, quando il provider può aggiornarla, riscrive la credenziale aggiornata
nell’archiviazione Codex invece di prenderne possesso in una copia separata solo OpenClaw.
Se il tuo account Codex ha diritto a Codex Spark, OpenClaw supporta anche:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark con API key.
OpenClaw preserva anche openai-codex/gpt-5.3-codex-spark quando pi-ai
lo rileva. Consideralo dipendente dai diritti e sperimentale: Codex Spark è
separato da GPT-5.4 /fast, e la disponibilità dipende dall’account Codex /
ChatGPT connesso.
Limite della finestra di contesto Codex
OpenClaw tratta i metadati del modello Codex e il limite di contesto runtime come valori separati. Peropenai-codex/gpt-5.4:
contextWindownativo:1050000- limite predefinito runtime
contextTokens:272000
models.providers.<provider>.models[].contextTokens:
contextWindow solo quando stai dichiarando o sovrascrivendo metadati nativi del modello.
Usa contextTokens quando vuoi limitare il budget di contesto runtime.
Trasporto predefinito
OpenClaw usapi-ai per lo streaming del modello. Sia per openai/* sia per
openai-codex/*, il trasporto predefinito è "auto" (prima WebSocket, poi fallback
SSE).
In modalità "auto", OpenClaw ritenta anche un errore WebSocket iniziale e ripetibile
prima di ripiegare su SSE. La modalità "websocket" forzata continua invece a mostrare direttamente
gli errori di trasporto invece di nasconderli dietro il fallback.
Dopo un errore WebSocket di connessione o inizio turno in modalità "auto", OpenClaw contrassegna
il percorso WebSocket di quella sessione come degradato per circa 60 secondi e invia
i turni successivi tramite SSE durante il raffreddamento invece di oscillare
tra i trasporti.
Per gli endpoint nativi della famiglia OpenAI (openai/*, openai-codex/* e Azure
OpenAI Responses), OpenClaw allega anche uno stato stabile di identità di sessione e turno
alle richieste così retry, riconnessioni e fallback SSE restano allineati alla stessa
identità di conversazione. Sui percorsi nativi della famiglia OpenAI questo include header stabili di identità richiesta di sessione/turno più metadati di trasporto corrispondenti.
OpenClaw normalizza anche i contatori di utilizzo OpenAI tra le varianti di trasporto prima
che raggiungano le superfici di sessione/stato. Il traffico nativo OpenAI/Codex Responses può
riportare l’utilizzo come input_tokens / output_tokens oppure
prompt_tokens / completion_tokens; OpenClaw li tratta come gli stessi contatori
di input e output per /status, /usage e i log di sessione. Quando il traffico nativo
WebSocket omette total_tokens (o riporta 0), OpenClaw usa come fallback il totale normalizzato input + output così le visualizzazioni session/status restano popolate.
Puoi impostare agents.defaults.models.<provider/model>.params.transport:
"sse": forza SSE"websocket": forza WebSocket"auto": prova WebSocket, poi ripiega su SSE
openai/* (API Responses), OpenClaw abilita per impostazione predefinita anche il warm-up WebSocket
(openaiWsWarmup: true) quando viene usato il trasporto WebSocket.
Documentazione OpenAI correlata:
Warm-up WebSocket OpenAI
La documentazione OpenAI descrive il warm-up come facoltativo. OpenClaw lo abilita per impostazione predefinita peropenai/* per ridurre la latenza del primo turno quando si usa il trasporto WebSocket.
Disabilitare il warm-up
Abilitare esplicitamente il warm-up
OpenAI e Codex priority processing
L’API OpenAI espone il priority processing tramiteservice_tier=priority. In
OpenClaw, imposta agents.defaults.models["<provider>/<model>"].params.serviceTier
per inoltrare quel campo agli endpoint nativi OpenAI/Codex Responses.
auto, default, flex e priority.
OpenClaw inoltra params.serviceTier sia alle richieste dirette openai/* Responses
sia alle richieste openai-codex/* Codex Responses quando tali modelli puntano
agli endpoint nativi OpenAI/Codex.
Comportamento importante:
openai/*diretto deve puntare aapi.openai.comopenai-codex/*deve puntare achatgpt.com/backend-api- se instradi uno dei due provider tramite un altro
baseUrlo proxy, OpenClaw lascia invariatoservice_tier
Modalità veloce OpenAI
OpenClaw espone un interruttore condiviso della modalità veloce sia per le sessioniopenai/* sia per
quelle openai-codex/*:
- Chat/UI:
/fast status|on|off - Configurazione:
agents.defaults.models["<provider>/<model>"].params.fastMode
- le chiamate dirette
openai/*Responses versoapi.openai.cominvianoservice_tier = "priority" - anche le chiamate
openai-codex/*Responses versochatgpt.com/backend-apiinvianoservice_tier = "priority" - i valori
service_tiergià presenti nel payload vengono preservati - la modalità veloce non riscrive
reasoningnétext.verbosity
Percorsi nativi OpenAI rispetto ai percorsi compatibili OpenAI
OpenClaw tratta gli endpoint diretti OpenAI, Codex e Azure OpenAI in modo diverso dai proxy generici compatibili OpenAI/v1:
- i percorsi nativi
openai/*,openai-codex/*e Azure OpenAI mantengono intattoreasoning: { effort: "none" }quando disabiliti esplicitamente il reasoning - i percorsi nativi della famiglia OpenAI usano per impostazione predefinita gli schemi degli strumenti in modalità strict
- gli header nascosti di attribuzione OpenClaw (
originator,versioneUser-Agent) vengono allegati solo agli host nativi OpenAI verificati (api.openai.com) e agli host nativi Codex (chatgpt.com/backend-api) - i percorsi nativi OpenAI/Codex mantengono il request shaping solo OpenAI come
service_tier,storedi Responses, payload di compatibilità OpenAI per il reasoning e hint della prompt cache - i percorsi compatibili OpenAI in stile proxy mantengono il comportamento di compatibilità più permissivo e non forzano schemi degli strumenti strict, request shaping solo nativo né header nascosti di attribuzione OpenAI/Codex
/v1 di terze parti.
Compattazione lato server OpenAI Responses
Per i modelli OpenAI Responses diretti (openai/* che usano api: "openai-responses" con
baseUrl su api.openai.com), OpenClaw ora abilita automaticamente gli hint di payload
di compattazione lato server di OpenAI:
- forza
store: true(a meno che la compatibilità del modello non impostisupportsStore: false) - inietta
context_management: [{ type: "compaction", compact_threshold: ... }]
compact_threshold è il 70% di contextWindow del modello (oppure 80000
se non disponibile).
Abilitare esplicitamente la compattazione lato server
Usa questa opzione quando vuoi forzare l’iniezione dicontext_management su modelli
Responses compatibili (ad esempio Azure OpenAI Responses):
Abilitare con una soglia personalizzata
Disabilitare la compattazione lato server
responsesServerCompaction controlla solo l’iniezione di context_management.
I modelli OpenAI Responses diretti continuano comunque a forzare store: true a meno che la compatibilità non imposti
supportsStore: false.
Note
- I riferimenti ai modelli usano sempre
provider/model(vedi /concepts/models). - I dettagli auth + le regole di riutilizzo sono in /concepts/oauth.