OpenAI
OpenAI fornisce API per sviluppatori per i modelli GPT. OpenClaw supporta due percorsi di autenticazione:- Chiave API — accesso diretto a OpenAI Platform con fatturazione basata sull’utilizzo (modelli
openai/*) - Abbonamento Codex — accesso con ChatGPT/Codex e utilizzo tramite abbonamento (modelli
openai-codex/*)
Per iniziare
Scegli il metodo di autenticazione che preferisci e segui i passaggi di configurazione.- Chiave API (OpenAI Platform)
- Abbonamento Codex
Ideale per: accesso diretto alle API e fatturazione basata sull’utilizzo.
Ottieni la tua chiave API
Crea o copia una chiave API dalla dashboard di OpenAI Platform.
Riepilogo del percorso
| Riferimento modello | Percorso | Auth |
|---|---|---|
openai/gpt-5.4 | API diretta OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.4-pro | API diretta OpenAI Platform | OPENAI_API_KEY |
L’accesso con ChatGPT/Codex viene instradato tramite
openai-codex/*, non openai/*.Esempio di configurazione
Generazione di immagini
Il Plugin bundleopenai registra la generazione di immagini tramite lo strumento image_generate.
| Capability | Valore |
|---|---|
| Modello predefinito | openai/gpt-image-1 |
| Immagini massime per richiesta | 4 |
| Modalità modifica | Abilitata (fino a 5 immagini di riferimento) |
| Override delle dimensioni | Supportati |
| Aspect ratio / resolution | Non inoltrati all’API OpenAI Images |
Vedi Generazione di immagini per i parametri condivisi dello strumento, la selezione del provider e il comportamento di failover.
Generazione video
Il Plugin bundleopenai registra la generazione video tramite lo strumento video_generate.
| Capability | Valore |
|---|---|
| Modello predefinito | openai/sora-2 |
| Modalità | Text-to-video, image-to-video, modifica di un singolo video |
| Input di riferimento | 1 immagine o 1 video |
| Override delle dimensioni | Supportati |
| Altri override | aspectRatio, resolution, audio, watermark vengono ignorati con un avviso dello strumento |
Vedi Generazione video per i parametri condivisi dello strumento, la selezione del provider e il comportamento di failover.
Overlay della personalità
OpenClaw aggiunge un piccolo overlay di prompt specifico per OpenAI per le esecuzioniopenai/* e openai-codex/*. L’overlay mantiene l’assistente cordiale, collaborativo, conciso e un po’ più espressivo dal punto di vista emotivo senza sostituire il prompt di sistema di base.
| Valore | Effetto |
|---|---|
"friendly" (predefinito) | Abilita l’overlay specifico per OpenAI |
"on" | Alias di "friendly" |
"off" | Usa solo il prompt OpenClaw di base |
- Configurazione
- CLI
Voce e parlato
Sintesi vocale (TTS)
Sintesi vocale (TTS)
Il Plugin bundle
Modelli disponibili:
openai registra la sintesi vocale per la superficie messages.tts.| Impostazione | Percorso config | Predefinito |
|---|---|---|
| Modello | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Voce | messages.tts.providers.openai.voice | coral |
| Velocità | messages.tts.providers.openai.speed | (non impostato) |
| Istruzioni | messages.tts.providers.openai.instructions | (non impostato, solo gpt-4o-mini-tts) |
| Formato | messages.tts.providers.openai.responseFormat | opus per i messaggi vocali, mp3 per i file |
| Chiave API | messages.tts.providers.openai.apiKey | Usa OPENAI_API_KEY come fallback |
| URL di base | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Voci disponibili: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Imposta
OPENAI_TTS_BASE_URL per sostituire l’URL di base TTS senza influire sull’endpoint API della chat.Trascrizione realtime
Trascrizione realtime
Il Plugin bundle
openai registra la trascrizione realtime per il Plugin Voice Call.| Impostazione | Percorso config | Predefinito |
|---|---|---|
| Modello | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Durata del silenzio | ...openai.silenceDurationMs | 800 |
| Soglia VAD | ...openai.vadThreshold | 0.5 |
| Chiave API | ...openai.apiKey | Usa OPENAI_API_KEY come fallback |
Usa una connessione WebSocket a
wss://api.openai.com/v1/realtime con audio G.711 u-law.Voce realtime
Voce realtime
Il Plugin bundle
openai registra la voce realtime per il Plugin Voice Call.| Impostazione | Percorso config | Predefinito |
|---|---|---|
| Modello | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| Voce | ...openai.voice | alloy |
| Temperatura | ...openai.temperature | 0.8 |
| Soglia VAD | ...openai.vadThreshold | 0.5 |
| Durata del silenzio | ...openai.silenceDurationMs | 500 |
| Chiave API | ...openai.apiKey | Usa OPENAI_API_KEY come fallback |
Supporta Azure OpenAI tramite le chiavi di configurazione
azureEndpoint e azureDeployment. Supporta la chiamata bidirezionale degli strumenti. Usa il formato audio G.711 u-law.Configurazione avanzata
Trasporto (WebSocket vs SSE)
Trasporto (WebSocket vs SSE)
OpenClaw usa prima WebSocket con fallback SSE (
Documentazione OpenAI correlata:
"auto") sia per openai/* sia per openai-codex/*.In modalità "auto", OpenClaw:- Riprova un errore iniziale WebSocket prima di passare a SSE
- Dopo un errore, contrassegna WebSocket come degradato per ~60 secondi e usa SSE durante il raffreddamento
- Collega header stabili di identità di sessione e turno per retry e riconnessioni
- Normalizza i contatori di utilizzo (
input_tokens/prompt_tokens) tra le varianti di trasporto
| Valore | Comportamento |
|---|---|
"auto" (predefinito) | Prima WebSocket, fallback SSE |
"sse" | Forza solo SSE |
"websocket" | Forza solo WebSocket |
Warm-up WebSocket
Warm-up WebSocket
OpenClaw abilita il warm-up WebSocket per impostazione predefinita per
openai/* per ridurre la latenza del primo turno.Modalità rapida
Modalità rapida
OpenClaw espone un interruttore condiviso della modalità rapida sia per
openai/* sia per openai-codex/*:- Chat/UI:
/fast status|on|off - Configurazione:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). I valori service_tier esistenti vengono mantenuti e la modalità rapida non riscrive reasoning né text.verbosity.Gli override della sessione hanno la precedenza sulla configurazione. Cancellare l’override della sessione nella UI Sessions riporta la sessione al valore predefinito configurato.
Elaborazione prioritaria (service_tier)
Elaborazione prioritaria (service_tier)
L’API di OpenAI espone l’elaborazione prioritaria tramite Valori supportati:
service_tier. Impostala per modello in OpenClaw:auto, default, flex, priority.Compaction lato server (API Responses)
Compaction lato server (API Responses)
Per i modelli Responses OpenAI diretti (
openai/* su api.openai.com), OpenClaw abilita automaticamente la Compaction lato server:- Forza
store: true(a meno che la compatibilità del modello impostisupportsStore: false) - Inserisce
context_management: [{ type: "compaction", compact_threshold: ... }] compact_thresholdpredefinito: 70% dicontextWindow(oppure80000se non disponibile)
- Abilita esplicitamente
- Soglia personalizzata
- Disabilita
Utile per endpoint compatibili come Azure OpenAI Responses:
responsesServerCompaction controlla solo l’inserimento di context_management. I modelli Responses OpenAI diretti continuano comunque a forzare store: true a meno che la compatibilità non imposti supportsStore: false.Modalità GPT agentica rigorosa
Modalità GPT agentica rigorosa
Per le esecuzioni della famiglia GPT-5 su Con
openai/* e openai-codex/*, OpenClaw può usare un contratto di esecuzione incorporato più rigoroso:strict-agentic, OpenClaw:- Non tratta più un turno di solo piano come progresso riuscito quando è disponibile un’azione tramite strumento
- Riprova il turno con un orientamento ad agire subito
- Abilita automaticamente
update_planper il lavoro sostanziale - Mostra uno stato bloccato esplicito se il modello continua a pianificare senza agire
Limitata solo alle esecuzioni GPT-5 della famiglia OpenAI e Codex. Gli altri provider e le famiglie di modelli più vecchie mantengono il comportamento predefinito.
Percorsi nativi vs compatibili con OpenAI
Percorsi nativi vs compatibili con OpenAI
OpenClaw tratta gli endpoint diretti OpenAI, Codex e Azure OpenAI in modo diverso dai proxy generici
/v1 compatibili con OpenAI:Percorsi nativi (openai/*, openai-codex/*, Azure OpenAI):- Mantengono intatto
reasoning: { effort: "none" }quando il reasoning è esplicitamente disabilitato - Impostano in modo predefinito gli schemi degli strumenti in modalità rigorosa
- Collegano header di attribuzione nascosti solo su host nativi verificati
- Mantengono la modellazione delle richieste specifica di OpenAI (
service_tier,store, compatibilità del reasoning, hint della cache dei prompt)
- Usano un comportamento di compatibilità più permissivo
- Non forzano schemi degli strumenti rigorosi né header solo nativi
Correlati
Selezione del modello
Scegliere provider, riferimenti ai modelli e comportamento di failover.
Generazione di immagini
Parametri condivisi dello strumento immagine e selezione del provider.
Generazione video
Parametri condivisi dello strumento video e selezione del provider.
OAuth e autenticazione
Dettagli sull’autenticazione e regole di riutilizzo delle credenziali.