Naar hoofdinhoud gaan

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI biedt ontwikkelaars-API’s voor GPT-modellen, en Codex is ook beschikbaar als een ChatGPT-plan-codeeragent via OpenAI’s Codex-clients. OpenClaw houdt die oppervlakken gescheiden zodat configuratie voorspelbaar blijft. OpenClaw ondersteunt drie OpenAI-familieroutes. Het modelvoorvoegsel selecteert de provider/auth-route; een aparte runtime-instelling selecteert wie de ingebedde agentlus uitvoert:
  • API-sleutel — directe OpenAI Platform-toegang met gebruiksgebaseerde facturering (openai/*-modellen)
  • Codex-abonnement via PI — ChatGPT/Codex-aanmelding met abonnementstoegang (openai-codex/*-modellen)
  • Codex app-server-harnas — native Codex app-server-uitvoering (openai/*-modellen plus agents.defaults.agentRuntime.id: "codex")
OpenAI ondersteunt expliciet OAuth-gebruik met abonnementen in externe tools en workflows zoals OpenClaw. Provider, model, runtime en kanaal zijn afzonderlijke lagen. Als die labels door elkaar raken, lees dan Agent-runtimes voordat je de configuratie wijzigt.

Snelle keuze

DoelGebruikOpmerkingen
Directe facturering via API-sleutelopenai/gpt-5.5Stel OPENAI_API_KEY in of voer OpenAI API-sleutel-onboarding uit.
GPT-5.5 met ChatGPT/Codex-abonnementsauthopenai-codex/gpt-5.5Standaard PI-route voor Codex OAuth. Beste eerste keuze voor abonnementssetups.
GPT-5.5 met native Codex app-server-gedragopenai/gpt-5.5 plus agentRuntime.id: "codex"Forceert het Codex app-server-harnas voor die modelverwijzing.
Afbeeldingen genereren of bewerkenopenai/gpt-image-2Werkt met OPENAI_API_KEY of OpenAI Codex OAuth.
Afbeeldingen met transparante achtergrondopenai/gpt-image-1.5Gebruik outputFormat=png of webp en openai.background=transparent.

Naamgevingskaart

De namen lijken op elkaar, maar zijn niet onderling uitwisselbaar:
Naam die je zietLaagBetekenis
openaiProvidervoorvoegselDirecte OpenAI Platform API-route.
openai-codexProvidervoorvoegselOpenAI Codex OAuth-/abonnementsroute via de normale OpenClaw PI-runner.
codex pluginPluginMeegeleverde OpenClaw-plugin die native Codex app-server-runtime en /codex-chatbediening biedt.
agentRuntime.id: codexAgent-runtimeForceer het native Codex app-server-harnas voor ingebedde beurten.
/codex ...ChatopdrachtensetKoppel/beheer Codex app-server-threads vanuit een gesprek.
runtime: "acp", agentId: "codex"ACP-sessierouteExpliciet fallbackpad dat Codex via ACP/acpx uitvoert.
Dit betekent dat een configuratie bewust zowel openai-codex/* als de codex plugin kan bevatten. Dat is geldig wanneer je Codex OAuth via PI wilt en ook native /codex-chatbediening beschikbaar wilt hebben. openclaw doctor waarschuwt voor die combinatie zodat je kunt bevestigen dat die opzettelijk is; het herschrijft deze niet.
GPT-5.5 is beschikbaar via zowel directe OpenAI Platform API-sleuteltoegang als abonnements-/OAuth-routes. Gebruik openai/gpt-5.5 voor direct OPENAI_API_KEY- verkeer, openai-codex/gpt-5.5 voor Codex OAuth via PI, of openai/gpt-5.5 met agentRuntime.id: "codex" voor het native Codex app-server-harnas.
Het inschakelen van de OpenAI-plugin, of het selecteren van een openai-codex/*-model, schakelt de meegeleverde Codex app-server-plugin niet in. OpenClaw schakelt die plugin alleen in wanneer je expliciet het native Codex-harnas selecteert met agentRuntime.id: "codex" of een legacy codex/*-modelverwijzing gebruikt. Als de meegeleverde codex plugin is ingeschakeld maar openai-codex/* nog steeds via PI wordt opgelost, waarschuwt openclaw doctor en laat het de route ongewijzigd.

OpenClaw-functiedekking

OpenAI-mogelijkheidOpenClaw-oppervlakStatus
Chat / Responsesopenai/<model>-modelproviderJa
Codex-abonnementsmodellenopenai-codex/<model> met openai-codex OAuthJa
Codex app-server-harnasopenai/<model> met agentRuntime.id: codexJa
Webzoekopdracht aan serverzijdeNative OpenAI Responses-toolJa, wanneer webzoekopdracht is ingeschakeld en geen provider is vastgezet
Afbeeldingenimage_generateJa
Video’svideo_generateJa
Tekst-naar-spraakmessages.tts.provider: "openai" / ttsJa
Batchgewijze spraak-naar-teksttools.media.audio / mediabegripJa
Streaming spraak-naar-tekstVoice Call streaming.provider: "openai"Ja
Realtime stemVoice Call realtime.provider: "openai" / Control UI TalkJa
Embeddingsprovider voor geheugenembeddingsJa

Geheugenembeddings

OpenClaw kan OpenAI, of een OpenAI-compatibel embedding-eindpunt, gebruiken voor memory_search-indexering en query-embeddings:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
Voor OpenAI-compatibele eindpunten die asymmetrische embeddinglabels vereisen, stel je queryInputType en documentInputType in onder memorySearch. OpenClaw stuurt die door als providerspecifieke input_type-aanvraagvelden: query-embeddings gebruiken queryInputType; geïndexeerde geheugenfragmenten en batchindexering gebruiken documentInputType. Zie de referentie voor geheugenconfiguratie voor het volledige voorbeeld.

Aan de slag

Kies je voorkeursmethode voor auth en volg de installatiestappen.
Het meest geschikt voor: directe API-toegang en gebruiksgebaseerde facturering.
1

Haal je API-sleutel op

Maak of kopieer een API-sleutel vanuit het OpenAI Platform-dashboard.
2

Voer onboarding uit

openclaw onboard --auth-choice openai-api-key
Of geef de sleutel direct door:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

Controleer of het model beschikbaar is

openclaw models list --provider openai

Routesamenvatting

ModelverwijzingRuntimeconfiguratieRouteAuth
openai/gpt-5.5weggelaten / agentRuntime.id: "pi"Directe OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-miniweggelaten / agentRuntime.id: "pi"Directe OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.5agentRuntime.id: "codex"Codex app-server-harnasCodex app-server
openai/* is de directe OpenAI API-sleutelroute, tenzij je expliciet het Codex app-server-harnas forceert. Gebruik openai-codex/* voor Codex OAuth via de standaard PI-runner, of gebruik openai/gpt-5.5 met agentRuntime.id: "codex" voor native Codex app-server-uitvoering.

Configuratievoorbeeld

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
OpenClaw stelt openai/gpt-5.3-codex-spark niet beschikbaar. Live OpenAI API-aanvragen wijzen dat model af, en de huidige Codex-catalogus stelt het ook niet beschikbaar.

Native Codex app-server-authenticatie

De native Codex app-server-harness gebruikt openai/*-modelreferenties plus agentRuntime.id: "codex", maar de authenticatie blijft accountgebaseerd. OpenClaw selecteert authenticatie in deze volgorde:
  1. Een expliciet OpenClaw openai-codex-authenticatieprofiel dat aan de agent is gekoppeld.
  2. Het bestaande account van de app-server, zoals een lokale Codex CLI ChatGPT-aanmelding.
  3. Alleen voor lokale stdio app-server-starts, CODEX_API_KEY, daarna OPENAI_API_KEY, wanneer de app-server geen account meldt en nog steeds OpenAI-authenticatie vereist.
Dat betekent dat een lokale ChatGPT/Codex-abonnementsaanmelding niet wordt vervangen alleen omdat het gatewayproces ook OPENAI_API_KEY heeft voor directe OpenAI-modellen of embeddings. De fallback met env-API-sleutel is alleen het lokale stdio-pad zonder account; deze wordt niet naar WebSocket app-server-verbindingen verzonden. Wanneer een Codex-profiel in abonnementsstijl is geselecteerd, houdt OpenClaw ook CODEX_API_KEY en OPENAI_API_KEY buiten het voortgebrachte stdio app-server-childproces en verzendt het de geselecteerde referenties via de app-server login-RPC.

Afbeeldingen genereren

De meegeleverde openai-Plugin registreert afbeeldingsgeneratie via de tool image_generate. Deze ondersteunt zowel afbeeldingsgeneratie met een OpenAI API-sleutel als Codex OAuth-afbeeldingsgeneratie via dezelfde openai/gpt-image-2-modelreferentie.
MogelijkheidOpenAI API-sleutelCodex OAuth
Modelreferentieopenai/gpt-image-2openai/gpt-image-2
AuthenticatieOPENAI_API_KEYOpenAI Codex OAuth-aanmelding
TransportOpenAI Images APICodex Responses-backend
Max. afbeeldingen per aanvraag44
BewerkmodusIngeschakeld (tot 5 referentieafbeeldingen)Ingeschakeld (tot 5 referentieafbeeldingen)
Grootte-overschrijvingenOndersteund, inclusief 2K/4K-groottesOndersteund, inclusief 2K/4K-groottes
Beeldverhouding / resolutieNiet doorgestuurd naar OpenAI Images APINaar een ondersteunde grootte gemapt wanneer dat veilig is
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
Zie Afbeeldingen genereren voor gedeelde toolparameters, providerselectie en failovergedrag.
gpt-image-2 is de standaard voor zowel OpenAI tekst-naar-afbeelding-generatie als het bewerken van afbeeldingen. gpt-image-1.5, gpt-image-1 en gpt-image-1-mini blijven bruikbaar als expliciete modeloverschrijvingen. Gebruik openai/gpt-image-1.5 voor PNG/WebP-uitvoer met transparante achtergrond; de huidige gpt-image-2-API weigert background: "transparent". Voor een aanvraag met transparante achtergrond moeten agents image_generate aanroepen met model: "openai/gpt-image-1.5", outputFormat: "png" of "webp", en background: "transparent"; de oudere provideroptie openai.background wordt nog steeds geaccepteerd. OpenClaw beschermt ook de publieke OpenAI- en OpenAI Codex OAuth-routes door standaard transparante openai/gpt-image-2-aanvragen te herschrijven naar gpt-image-1.5; Azure en aangepaste OpenAI-compatibele endpoints behouden hun geconfigureerde deployment-/modelnamen. Dezelfde instelling is beschikbaar voor headless CLI-runs:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "A simple red circle sticker on a transparent background" \
  --json
Gebruik dezelfde flags --output-format en --background met openclaw infer image edit wanneer je vanuit een invoerbestand begint. --openai-background blijft beschikbaar als OpenAI-specifieke alias. Voor Codex OAuth-installaties behoud je dezelfde openai/gpt-image-2-referentie. Wanneer een openai-codex OAuth-profiel is geconfigureerd, zet OpenClaw dat opgeslagen OAuth- toegangstoken om en verzendt het afbeeldingsaanvragen via de Codex Responses-backend. Het probeert niet eerst OPENAI_API_KEY en valt voor die aanvraag niet stilzwijgend terug op een API-sleutel. Configureer models.providers.openai expliciet met een API-sleutel, aangepaste basis-URL of Azure-endpoint wanneer je in plaats daarvan de directe OpenAI Images API- route wilt. Als dat aangepaste afbeeldingsendpoint zich op een vertrouwd LAN-/privéadres bevindt, stel dan ook browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true in; OpenClaw houdt private/interne OpenAI-compatibele afbeeldingsendpoints geblokkeerd tenzij deze opt-in aanwezig is. Genereren:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
Een transparante PNG genereren:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
Bewerken:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536

Video genereren

De meegeleverde openai-Plugin registreert videogeneratie via de tool video_generate.
MogelijkheidWaarde
Standaardmodelopenai/sora-2
ModiTekst-naar-video, afbeelding-naar-video, enkele-video-bewerking
Referentie-invoer1 afbeelding of 1 video
Grootte-overschrijvingenOndersteund
Andere overschrijvingenaspectRatio, resolution, audio, watermark worden genegeerd met een toolwaarschuwing
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
Zie Video genereren voor gedeelde toolparameters, providerselectie en failovergedrag.

GPT-5-promptbijdrage

OpenClaw voegt een gedeelde GPT-5-promptbijdrage toe voor runs uit de GPT-5-familie bij providers. Deze wordt toegepast op basis van model-id, dus openai-codex/gpt-5.5, openai/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 en andere compatibele GPT-5-referenties krijgen dezelfde overlay. Oudere GPT-4.x-modellen niet. De meegeleverde native Codex-harness gebruikt hetzelfde GPT-5-gedrag en dezelfde Heartbeat-overlay via Codex app-server developer instructions, zodat openai/gpt-5.x-sessies die via agentRuntime.id: "codex" worden afgedwongen dezelfde follow-through en proactieve Heartbeat-richtlijnen behouden, ook al beheert Codex de rest van de harness-prompt. De GPT-5-bijdrage voegt een getagd gedragscontract toe voor persona-persistentie, uitvoeringsveiligheid, tooldiscipline, uitvoervorm, voltooiingscontroles en verificatie. Kanaalspecifiek antwoord- en stilberichtgedrag blijft in de gedeelde OpenClaw-systeemprompt en het uitgaande afleveringsbeleid. De GPT-5-richtlijnen zijn altijd ingeschakeld voor overeenkomende modellen. De vriendelijke interactiestijllaag is afzonderlijk en configureerbaar.
WaardeEffect
"friendly" (standaard)Schakel de vriendelijke interactiestijllaag in
"on"Alias voor "friendly"
"off"Schakel alleen de vriendelijke stijllaag uit
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
Waarden zijn tijdens runtime niet hoofdlettergevoelig, dus "Off" en "off" schakelen beide de vriendelijke stijllaag uit.
Verouderde plugins.entries.openai.config.personality wordt nog steeds gelezen als compatibiliteitsfallback wanneer de gedeelde instelling agents.defaults.promptOverlays.gpt5.personality niet is ingesteld.

Stem en spraak

De meegeleverde openai-Plugin registreert spraaksynthese voor het messages.tts-oppervlak.
InstellingConfiguratiepadStandaard
Modelmessages.tts.providers.openai.modelgpt-4o-mini-tts
Stemmessages.tts.providers.openai.voicecoral
Snelheidmessages.tts.providers.openai.speed(niet ingesteld)
Instructiesmessages.tts.providers.openai.instructions(niet ingesteld, alleen gpt-4o-mini-tts)
Indelingmessages.tts.providers.openai.responseFormatopus voor spraaknotities, mp3 voor bestanden
API-sleutelmessages.tts.providers.openai.apiKeyValt terug op OPENAI_API_KEY
Basis-URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
Beschikbare modellen: gpt-4o-mini-tts, tts-1, tts-1-hd. Beschikbare stemmen: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
Stel OPENAI_TTS_BASE_URL in om de TTS-basis-URL te overschrijven zonder het chat-API-endpoint te beïnvloeden.
De meegeleverde openai-Plugin registreert batchgewijze spraak-naar-tekst via het media-understanding-transcriptieoppervlak van OpenClaw.
  • Standaardmodel: gpt-4o-transcribe
  • Endpoint: OpenAI REST /v1/audio/transcriptions
  • Invoerpad: multipart audiobestandsupload
  • Ondersteund door OpenClaw overal waar inkomende audiotranscriptie tools.media.audio gebruikt, inclusief Discord-spraakkanaalsegmenten en kanaal- audiobijlagen
Om OpenAI af te dwingen voor inkomende audiotranscriptie:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
Taal- en prompt-hints worden doorgestuurd naar OpenAI wanneer ze worden geleverd door de gedeelde configuratie voor audiomedia of de transcriptieaanvraag per aanroep.
De gebundelde openai-Plugin registreert realtime transcriptie voor de Voice Call-Plugin.
InstellingConfiguratiepadStandaard
Modelplugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
Taal...openai.language(niet ingesteld)
Prompt...openai.prompt(niet ingesteld)
Stilteduur...openai.silenceDurationMs800
VAD-drempel...openai.vadThreshold0.5
API-sleutel...openai.apiKeyValt terug op OPENAI_API_KEY
Gebruikt een WebSocket-verbinding met wss://api.openai.com/v1/realtime met G.711 u-law (g711_ulaw / audio/pcmu)-audio. Deze streamingprovider is bedoeld voor het realtime transcriptiepad van Voice Call; Discord-spraak neemt momenteel korte segmenten op en gebruikt in plaats daarvan het batch-transcriptiepad tools.media.audio.
De gebundelde openai-Plugin registreert realtime spraak voor de Voice Call-Plugin.
InstellingConfiguratiepadStandaard
Modelplugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-1.5
Stem...openai.voicealloy
Temperatuur...openai.temperature0.8
VAD-drempel...openai.vadThreshold0.5
Stilteduur...openai.silenceDurationMs500
API-sleutel...openai.apiKeyValt terug op OPENAI_API_KEY
Ondersteunt Azure OpenAI via de configuratiesleutels azureEndpoint en azureDeployment voor backend-realtime bridges. Ondersteunt bidirectionele tool-aanroepen. Gebruikt G.711 u-law-audioformaat.
Control UI Talk gebruikt OpenAI-browserrealtime-sessies met een door de Gateway geslagen tijdelijke client-secret en een directe browser-WebRTC-SDP-uitwisseling met de OpenAI Realtime API. Live verificatie door maintainers is beschikbaar met OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts; het OpenAI-deel slaat een client-secret in Node, genereert een browser-SDP-aanbod met nepmicrofoonmedia, post dit naar OpenAI en past het SDP-antwoord toe zonder secrets te loggen.

Azure OpenAI-eindpunten

De gebundelde openai-provider kan een Azure OpenAI-resource targeten voor beeldgeneratie door de basis-URL te overschrijven. Op het beeldgeneratiepad detecteert OpenClaw Azure-hostnamen op models.providers.openai.baseUrl en schakelt automatisch over naar de aanvraagvorm van Azure.
Realtime spraak gebruikt een apart configuratiepad (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint) en wordt niet beïnvloed door models.providers.openai.baseUrl. Zie de accordion Realtime spraak onder Spraak en spraak voor de Azure-instellingen.
Gebruik Azure OpenAI wanneer:
  • Je al een Azure OpenAI-abonnement, quota of enterprise-overeenkomst hebt
  • Je regionale dataresidentie of compliancecontroles nodig hebt die Azure biedt
  • Je verkeer binnen een bestaande Azure-tenancy wilt houden

Configuratie

Voor Azure-beeldgeneratie via de gebundelde openai-provider wijs je models.providers.openai.baseUrl naar je Azure-resource en stel je apiKey in op de Azure OpenAI-sleutel (niet een OpenAI Platform-sleutel):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw herkent deze Azure-hostsuffixen voor de Azure-beeldgeneratieroute:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
Voor beeldgeneratieaanvragen op een herkende Azure-host doet OpenClaw het volgende:
  • Stuurt de header api-key in plaats van Authorization: Bearer
  • Gebruikt implementatiegebonden paden (/openai/deployments/{deployment}/...)
  • Voegt ?api-version=... toe aan elke aanvraag
  • Gebruikt een standaard aanvraagtime-out van 600s voor Azure-beeldgeneratieaanroepen. timeoutMs-waarden per aanroep overschrijven deze standaard nog steeds.
Andere basis-URL’s (publieke OpenAI, OpenAI-compatibele proxy’s) behouden de standaard OpenAI-aanvraagvorm voor afbeeldingen.
Azure-routing voor het beeldgeneratiepad van de openai-provider vereist OpenClaw 2026.4.22 of nieuwer. Eerdere versies behandelen elke aangepaste openai.baseUrl als het publieke OpenAI-eindpunt en mislukken bij Azure- beeldimplementaties.

API-versie

Stel AZURE_OPENAI_API_VERSION in om een specifieke Azure-preview- of GA-versie vast te zetten voor het Azure-beeldgeneratiepad:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
De standaard is 2024-12-01-preview wanneer de variabele niet is ingesteld.

Modelnamen zijn implementatienamen

Azure OpenAI koppelt modellen aan implementaties. Voor Azure-beeldgeneratieaanvragen die via de gebundelde openai-provider worden gerouteerd, moet het veld model in OpenClaw de Azure-implementatienaam zijn die je in de Azure-portal hebt geconfigureerd, niet de publieke OpenAI-model-id. Als je een implementatie maakt met de naam gpt-image-2-prod die gpt-image-2 levert:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
Dezelfde regel voor implementatienamen geldt voor beeldgeneratieaanroepen die via de gebundelde openai-provider worden gerouteerd.

Regionale beschikbaarheid

Azure-beeldgeneratie is momenteel alleen beschikbaar in een subset van regio’s (bijvoorbeeld eastus2, swedencentral, polandcentral, westus3, uaenorth). Controleer de actuele regiolijst van Microsoft voordat je een implementatie maakt en bevestig dat het specifieke model in jouw regio wordt aangeboden.

Parameterverschillen

Azure OpenAI en publieke OpenAI accepteren niet altijd dezelfde beeldparameters. Azure kan opties weigeren die publieke OpenAI toestaat (bijvoorbeeld bepaalde background-waarden op gpt-image-2) of ze alleen beschikbaar maken op specifieke modelversies. Deze verschillen komen van Azure en het onderliggende model, niet van OpenClaw. Als een Azure-aanvraag mislukt met een validatiefout, controleer dan de parameterset die door jouw specifieke implementatie en API-versie in de Azure-portal wordt ondersteund.
Azure OpenAI gebruikt native transport en compat-gedrag, maar ontvangt niet de verborgen attributieheaders van OpenClaw — zie de accordion Native vs OpenAI-compatibele routes onder Geavanceerde configuratie.Voor chat- of Responses-verkeer op Azure (naast beeldgeneratie) gebruik je de onboardingflow of een speciale Azure-providerconfiguratie — alleen openai.baseUrl neemt de Azure API/auth-vorm niet over. Er bestaat een aparte azure-openai-responses/*-provider; zie de accordion Server-side Compaction hieronder.

Geavanceerde configuratie

OpenClaw gebruikt WebSocket-first met SSE-fallback ("auto") voor zowel openai/* als openai-codex/*.In de modus "auto" doet OpenClaw het volgende:
  • Probeert één vroege WebSocket-fout opnieuw voordat wordt teruggevallen op SSE
  • Markeert WebSocket na een fout ongeveer 60 seconden als gedegradeerd en gebruikt SSE tijdens de afkoelperiode
  • Voegt stabiele sessie- en beurtidentiteitsheaders toe voor nieuwe pogingen en herverbindingen
  • Normaliseert gebruikstellers (input_tokens / prompt_tokens) over transportvarianten heen
WaardeGedrag
"auto" (standaard)Eerst WebSocket, SSE-fallback
"sse"Alleen SSE afdwingen
"websocket"Alleen WebSocket afdwingen
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
        "openai-codex/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
Gerelateerde OpenAI-docs:
OpenClaw schakelt WebSocket-warming-up standaard in voor openai/* en openai-codex/* om latentie bij de eerste beurt te verminderen.
// Disable warm-up
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw biedt een gedeelde schakelaar voor snelle modus voor openai/* en openai-codex/*:
  • Chat/UI: /fast status|on|off
  • Config: agents.defaults.models["<provider>/<model>"].params.fastMode
Wanneer ingeschakeld, koppelt OpenClaw snelle modus aan OpenAI-prioriteitsverwerking (service_tier = "priority"). Bestaande service_tier-waarden blijven behouden en snelle modus herschrijft reasoning of text.verbosity niet.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
Sessie-overschrijvingen winnen van configuratie. Het wissen van de sessie-overschrijving in de Sessions-UI zet de sessie terug naar de geconfigureerde standaard.
De API van OpenAI biedt prioriteitsverwerking via service_tier. Stel dit per model in OpenClaw in:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
Ondersteunde waarden: auto, default, flex, priority.
serviceTier wordt alleen doorgestuurd naar native OpenAI-eindpunten (api.openai.com) en native Codex-eindpunten (chatgpt.com/backend-api). Als je een van beide providers via een proxy routeert, laat OpenClaw service_tier ongemoeid.
Voor directe OpenAI Responses-modellen (openai/* op api.openai.com) schakelt de Pi-harness-streamwrapper van de OpenAI-Plugin automatisch server-side Compaction in:
  • Dwingt store: true af (tenzij modelcompatibiliteit supportsStore: false instelt)
  • Injecteert context_management: [{ type: "compaction", compact_threshold: ... }]
  • Standaard compact_threshold: 70% van contextWindow (of 80000 wanneer niet beschikbaar)
Dit geldt voor het ingebouwde Pi-harnesspad en voor OpenAI-providerhooks die door ingebedde runs worden gebruikt. De native Codex app-server-harness beheert zijn eigen context via Codex en wordt apart geconfigureerd met agents.defaults.agentRuntime.id.
Nuttig voor compatibele eindpunten zoals Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction regelt alleen de injectie van context_management. Directe OpenAI Responses-modellen dwingen nog steeds store: true af, tenzij compat supportsStore: false instelt.
Voor uitvoeringen uit de GPT-5-familie op openai/* kan OpenClaw een strikter ingebed uitvoeringscontract gebruiken:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
Met strict-agentic:
  • Behandelt OpenClaw een beurt met alleen een plan niet langer als succesvolle voortgang wanneer een toolactie beschikbaar is
  • Probeert de beurt opnieuw met een aansporing om nu te handelen
  • Schakelt update_plan automatisch in voor substantieel werk
  • Toont een expliciete geblokkeerde status als het model blijft plannen zonder te handelen
Alleen van toepassing op uitvoeringen met OpenAI en Codex uit de GPT-5-familie. Andere providers en oudere modelfamilies behouden het standaardgedrag.
OpenClaw behandelt directe OpenAI-, Codex- en Azure OpenAI-eindpunten anders dan generieke OpenAI-compatibele /v1-proxy’s:Native routes (openai/*, Azure OpenAI):
  • Behouden reasoning: { effort: "none" } alleen voor modellen die de OpenAI-inspanning none ondersteunen
  • Laten uitgeschakelde redenering weg voor modellen of proxy’s die reasoning.effort: "none" weigeren
  • Stellen toolschema’s standaard in op strikte modus
  • Voegen verborgen attributieheaders alleen toe op geverifieerde native hosts
  • Behouden OpenAI-specifieke request shaping (service_tier, store, reasoning-compat, prompt-cache hints)
Proxy-/compatibele routes:
  • Gebruiken losser compat-gedrag
  • Verwijderen Completions store uit niet-native openai-completions-payloads
  • Accepteren geavanceerde doorvoer-JSON via params.extra_body/params.extraBody voor OpenAI-compatibele Completions-proxy’s
  • Accepteren params.chat_template_kwargs voor OpenAI-compatibele Completions-proxy’s zoals vLLM
  • Dwingen geen strikte toolschema’s of alleen-native headers af
Azure OpenAI gebruikt native transport en compat-gedrag, maar ontvangt de verborgen attributieheaders niet.

Gerelateerd

Modelselectie

Providers, modelverwijzingen en failover-gedrag kiezen.

Afbeeldingen genereren

Gedeelde parameters voor afbeeldingstools en providerselectie.

Video genereren

Gedeelde parameters voor videotools en providerselectie.

OAuth en authenticatie

Authenticatiegegevens en regels voor hergebruik van referenties.