OpenAI biedt ontwikkelaars-API’s voor GPT-modellen, en Codex is ook beschikbaar als een ChatGPT-plan-codeeragent via OpenAI’s Codex-clients. OpenClaw houdt die oppervlakken gescheiden zodat configuratie voorspelbaar blijft. OpenClaw ondersteunt drie OpenAI-familieroutes. Het modelvoorvoegsel selecteert de provider/auth-route; een aparte runtime-instelling selecteert wie de ingebedde agentlus uitvoert:Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- API-sleutel — directe OpenAI Platform-toegang met gebruiksgebaseerde facturering (
openai/*-modellen) - Codex-abonnement via PI — ChatGPT/Codex-aanmelding met abonnementstoegang (
openai-codex/*-modellen) - Codex app-server-harnas — native Codex app-server-uitvoering (
openai/*-modellen plusagents.defaults.agentRuntime.id: "codex")
Snelle keuze
| Doel | Gebruik | Opmerkingen |
|---|---|---|
| Directe facturering via API-sleutel | openai/gpt-5.5 | Stel OPENAI_API_KEY in of voer OpenAI API-sleutel-onboarding uit. |
| GPT-5.5 met ChatGPT/Codex-abonnementsauth | openai-codex/gpt-5.5 | Standaard PI-route voor Codex OAuth. Beste eerste keuze voor abonnementssetups. |
| GPT-5.5 met native Codex app-server-gedrag | openai/gpt-5.5 plus agentRuntime.id: "codex" | Forceert het Codex app-server-harnas voor die modelverwijzing. |
| Afbeeldingen genereren of bewerken | openai/gpt-image-2 | Werkt met OPENAI_API_KEY of OpenAI Codex OAuth. |
| Afbeeldingen met transparante achtergrond | openai/gpt-image-1.5 | Gebruik outputFormat=png of webp en openai.background=transparent. |
Naamgevingskaart
De namen lijken op elkaar, maar zijn niet onderling uitwisselbaar:| Naam die je ziet | Laag | Betekenis |
|---|---|---|
openai | Providervoorvoegsel | Directe OpenAI Platform API-route. |
openai-codex | Providervoorvoegsel | OpenAI Codex OAuth-/abonnementsroute via de normale OpenClaw PI-runner. |
codex plugin | Plugin | Meegeleverde OpenClaw-plugin die native Codex app-server-runtime en /codex-chatbediening biedt. |
agentRuntime.id: codex | Agent-runtime | Forceer het native Codex app-server-harnas voor ingebedde beurten. |
/codex ... | Chatopdrachtenset | Koppel/beheer Codex app-server-threads vanuit een gesprek. |
runtime: "acp", agentId: "codex" | ACP-sessieroute | Expliciet fallbackpad dat Codex via ACP/acpx uitvoert. |
openai-codex/* als de
codex plugin kan bevatten. Dat is geldig wanneer je Codex OAuth via PI wilt en ook
native /codex-chatbediening beschikbaar wilt hebben. openclaw doctor waarschuwt voor die
combinatie zodat je kunt bevestigen dat die opzettelijk is; het herschrijft deze niet.
GPT-5.5 is beschikbaar via zowel directe OpenAI Platform API-sleuteltoegang als
abonnements-/OAuth-routes. Gebruik
openai/gpt-5.5 voor direct OPENAI_API_KEY-
verkeer, openai-codex/gpt-5.5 voor Codex OAuth via PI, of
openai/gpt-5.5 met agentRuntime.id: "codex" voor het native Codex
app-server-harnas.Het inschakelen van de OpenAI-plugin, of het selecteren van een
openai-codex/*-model, schakelt de
meegeleverde Codex app-server-plugin niet in. OpenClaw schakelt die plugin alleen in
wanneer je expliciet het native Codex-harnas selecteert met
agentRuntime.id: "codex" of een legacy codex/*-modelverwijzing gebruikt.
Als de meegeleverde codex plugin is ingeschakeld maar openai-codex/* nog steeds
via PI wordt opgelost, waarschuwt openclaw doctor en laat het de route ongewijzigd.OpenClaw-functiedekking
| OpenAI-mogelijkheid | OpenClaw-oppervlak | Status |
|---|---|---|
| Chat / Responses | openai/<model>-modelprovider | Ja |
| Codex-abonnementsmodellen | openai-codex/<model> met openai-codex OAuth | Ja |
| Codex app-server-harnas | openai/<model> met agentRuntime.id: codex | Ja |
| Webzoekopdracht aan serverzijde | Native OpenAI Responses-tool | Ja, wanneer webzoekopdracht is ingeschakeld en geen provider is vastgezet |
| Afbeeldingen | image_generate | Ja |
| Video’s | video_generate | Ja |
| Tekst-naar-spraak | messages.tts.provider: "openai" / tts | Ja |
| Batchgewijze spraak-naar-tekst | tools.media.audio / mediabegrip | Ja |
| Streaming spraak-naar-tekst | Voice Call streaming.provider: "openai" | Ja |
| Realtime stem | Voice Call realtime.provider: "openai" / Control UI Talk | Ja |
| Embeddings | provider voor geheugenembeddings | Ja |
Geheugenembeddings
OpenClaw kan OpenAI, of een OpenAI-compatibel embedding-eindpunt, gebruiken voormemory_search-indexering en query-embeddings:
queryInputType en documentInputType in onder memorySearch. OpenClaw stuurt
die door als providerspecifieke input_type-aanvraagvelden: query-embeddings gebruiken
queryInputType; geïndexeerde geheugenfragmenten en batchindexering gebruiken
documentInputType. Zie de referentie voor geheugenconfiguratie voor het volledige voorbeeld.
Aan de slag
Kies je voorkeursmethode voor auth en volg de installatiestappen.- API-sleutel (OpenAI Platform)
- Codex-abonnement
Het meest geschikt voor: directe API-toegang en gebruiksgebaseerde facturering.
Haal je API-sleutel op
Maak of kopieer een API-sleutel vanuit het OpenAI Platform-dashboard.
Routesamenvatting
| Modelverwijzing | Runtimeconfiguratie | Route | Auth |
|---|---|---|---|
openai/gpt-5.5 | weggelaten / agentRuntime.id: "pi" | Directe OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-mini | weggelaten / agentRuntime.id: "pi" | Directe OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.5 | agentRuntime.id: "codex" | Codex app-server-harnas | Codex app-server |
openai/* is de directe OpenAI API-sleutelroute, tenzij je expliciet
het Codex app-server-harnas forceert. Gebruik openai-codex/* voor Codex OAuth via
de standaard PI-runner, of gebruik openai/gpt-5.5 met
agentRuntime.id: "codex" voor native Codex app-server-uitvoering.Configuratievoorbeeld
Native Codex app-server-authenticatie
De native Codex app-server-harness gebruiktopenai/*-modelreferenties plus
agentRuntime.id: "codex", maar de authenticatie blijft accountgebaseerd. OpenClaw
selecteert authenticatie in deze volgorde:
- Een expliciet OpenClaw
openai-codex-authenticatieprofiel dat aan de agent is gekoppeld. - Het bestaande account van de app-server, zoals een lokale Codex CLI ChatGPT-aanmelding.
- Alleen voor lokale stdio app-server-starts,
CODEX_API_KEY, daarnaOPENAI_API_KEY, wanneer de app-server geen account meldt en nog steeds OpenAI-authenticatie vereist.
OPENAI_API_KEY heeft voor directe OpenAI-modellen
of embeddings. De fallback met env-API-sleutel is alleen het lokale stdio-pad zonder account; deze
wordt niet naar WebSocket app-server-verbindingen verzonden. Wanneer een Codex-profiel in abonnementsstijl
is geselecteerd, houdt OpenClaw ook CODEX_API_KEY en OPENAI_API_KEY
buiten het voortgebrachte stdio app-server-childproces en verzendt het de geselecteerde referenties
via de app-server login-RPC.
Afbeeldingen genereren
De meegeleverdeopenai-Plugin registreert afbeeldingsgeneratie via de tool image_generate.
Deze ondersteunt zowel afbeeldingsgeneratie met een OpenAI API-sleutel als Codex OAuth-afbeeldingsgeneratie
via dezelfde openai/gpt-image-2-modelreferentie.
| Mogelijkheid | OpenAI API-sleutel | Codex OAuth |
|---|---|---|
| Modelreferentie | openai/gpt-image-2 | openai/gpt-image-2 |
| Authenticatie | OPENAI_API_KEY | OpenAI Codex OAuth-aanmelding |
| Transport | OpenAI Images API | Codex Responses-backend |
| Max. afbeeldingen per aanvraag | 4 | 4 |
| Bewerkmodus | Ingeschakeld (tot 5 referentieafbeeldingen) | Ingeschakeld (tot 5 referentieafbeeldingen) |
| Grootte-overschrijvingen | Ondersteund, inclusief 2K/4K-groottes | Ondersteund, inclusief 2K/4K-groottes |
| Beeldverhouding / resolutie | Niet doorgestuurd naar OpenAI Images API | Naar een ondersteunde grootte gemapt wanneer dat veilig is |
Zie Afbeeldingen genereren voor gedeelde toolparameters, providerselectie en failovergedrag.
gpt-image-2 is de standaard voor zowel OpenAI tekst-naar-afbeelding-generatie als het
bewerken van afbeeldingen. gpt-image-1.5, gpt-image-1 en gpt-image-1-mini blijven bruikbaar als
expliciete modeloverschrijvingen. Gebruik openai/gpt-image-1.5 voor PNG/WebP-uitvoer
met transparante achtergrond; de huidige gpt-image-2-API weigert
background: "transparent".
Voor een aanvraag met transparante achtergrond moeten agents image_generate aanroepen met
model: "openai/gpt-image-1.5", outputFormat: "png" of "webp", en
background: "transparent"; de oudere provideroptie openai.background wordt
nog steeds geaccepteerd. OpenClaw beschermt ook de publieke OpenAI- en
OpenAI Codex OAuth-routes door standaard transparante openai/gpt-image-2-aanvragen
te herschrijven naar gpt-image-1.5; Azure en aangepaste OpenAI-compatibele endpoints behouden
hun geconfigureerde deployment-/modelnamen.
Dezelfde instelling is beschikbaar voor headless CLI-runs:
--output-format en --background met
openclaw infer image edit wanneer je vanuit een invoerbestand begint.
--openai-background blijft beschikbaar als OpenAI-specifieke alias.
Voor Codex OAuth-installaties behoud je dezelfde openai/gpt-image-2-referentie. Wanneer een
openai-codex OAuth-profiel is geconfigureerd, zet OpenClaw dat opgeslagen OAuth-
toegangstoken om en verzendt het afbeeldingsaanvragen via de Codex Responses-backend. Het
probeert niet eerst OPENAI_API_KEY en valt voor die aanvraag niet stilzwijgend terug op een API-sleutel.
Configureer models.providers.openai expliciet met een API-sleutel,
aangepaste basis-URL of Azure-endpoint wanneer je in plaats daarvan de directe OpenAI Images API-
route wilt.
Als dat aangepaste afbeeldingsendpoint zich op een vertrouwd LAN-/privéadres bevindt, stel dan ook
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true in; OpenClaw houdt
private/interne OpenAI-compatibele afbeeldingsendpoints geblokkeerd tenzij deze opt-in
aanwezig is.
Genereren:
Video genereren
De meegeleverdeopenai-Plugin registreert videogeneratie via de tool video_generate.
| Mogelijkheid | Waarde |
|---|---|
| Standaardmodel | openai/sora-2 |
| Modi | Tekst-naar-video, afbeelding-naar-video, enkele-video-bewerking |
| Referentie-invoer | 1 afbeelding of 1 video |
| Grootte-overschrijvingen | Ondersteund |
| Andere overschrijvingen | aspectRatio, resolution, audio, watermark worden genegeerd met een toolwaarschuwing |
Zie Video genereren voor gedeelde toolparameters, providerselectie en failovergedrag.
GPT-5-promptbijdrage
OpenClaw voegt een gedeelde GPT-5-promptbijdrage toe voor runs uit de GPT-5-familie bij providers. Deze wordt toegepast op basis van model-id, dusopenai-codex/gpt-5.5, openai/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 en andere compatibele GPT-5-referenties krijgen dezelfde overlay. Oudere GPT-4.x-modellen niet.
De meegeleverde native Codex-harness gebruikt hetzelfde GPT-5-gedrag en dezelfde Heartbeat-overlay via Codex app-server developer instructions, zodat openai/gpt-5.x-sessies die via agentRuntime.id: "codex" worden afgedwongen dezelfde follow-through en proactieve Heartbeat-richtlijnen behouden, ook al beheert Codex de rest van de harness-prompt.
De GPT-5-bijdrage voegt een getagd gedragscontract toe voor persona-persistentie, uitvoeringsveiligheid, tooldiscipline, uitvoervorm, voltooiingscontroles en verificatie. Kanaalspecifiek antwoord- en stilberichtgedrag blijft in de gedeelde OpenClaw-systeemprompt en het uitgaande afleveringsbeleid. De GPT-5-richtlijnen zijn altijd ingeschakeld voor overeenkomende modellen. De vriendelijke interactiestijllaag is afzonderlijk en configureerbaar.
| Waarde | Effect |
|---|---|
"friendly" (standaard) | Schakel de vriendelijke interactiestijllaag in |
"on" | Alias voor "friendly" |
"off" | Schakel alleen de vriendelijke stijllaag uit |
- Configuratie
- CLI
Verouderde
plugins.entries.openai.config.personality wordt nog steeds gelezen als compatibiliteitsfallback wanneer de gedeelde instelling agents.defaults.promptOverlays.gpt5.personality niet is ingesteld.Stem en spraak
Spraaksynthese (TTS)
Spraaksynthese (TTS)
De meegeleverde
Beschikbare modellen:
openai-Plugin registreert spraaksynthese voor het messages.tts-oppervlak.| Instelling | Configuratiepad | Standaard |
|---|---|---|
| Model | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Stem | messages.tts.providers.openai.voice | coral |
| Snelheid | messages.tts.providers.openai.speed | (niet ingesteld) |
| Instructies | messages.tts.providers.openai.instructions | (niet ingesteld, alleen gpt-4o-mini-tts) |
| Indeling | messages.tts.providers.openai.responseFormat | opus voor spraaknotities, mp3 voor bestanden |
| API-sleutel | messages.tts.providers.openai.apiKey | Valt terug op OPENAI_API_KEY |
| Basis-URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Beschikbare stemmen: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Stel
OPENAI_TTS_BASE_URL in om de TTS-basis-URL te overschrijven zonder het chat-API-endpoint te beïnvloeden.Spraak-naar-tekst
Spraak-naar-tekst
De meegeleverde Taal- en prompt-hints worden doorgestuurd naar OpenAI wanneer ze worden geleverd door de
gedeelde configuratie voor audiomedia of de transcriptieaanvraag per aanroep.
openai-Plugin registreert batchgewijze spraak-naar-tekst via
het media-understanding-transcriptieoppervlak van OpenClaw.- Standaardmodel:
gpt-4o-transcribe - Endpoint: OpenAI REST
/v1/audio/transcriptions - Invoerpad: multipart audiobestandsupload
- Ondersteund door OpenClaw overal waar inkomende audiotranscriptie
tools.media.audiogebruikt, inclusief Discord-spraakkanaalsegmenten en kanaal- audiobijlagen
Realtime transcriptie
Realtime transcriptie
De gebundelde
openai-Plugin registreert realtime transcriptie voor de Voice Call-Plugin.| Instelling | Configuratiepad | Standaard |
|---|---|---|
| Model | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Taal | ...openai.language | (niet ingesteld) |
| Prompt | ...openai.prompt | (niet ingesteld) |
| Stilteduur | ...openai.silenceDurationMs | 800 |
| VAD-drempel | ...openai.vadThreshold | 0.5 |
| API-sleutel | ...openai.apiKey | Valt terug op OPENAI_API_KEY |
Gebruikt een WebSocket-verbinding met
wss://api.openai.com/v1/realtime met G.711 u-law (g711_ulaw / audio/pcmu)-audio. Deze streamingprovider is bedoeld voor het realtime transcriptiepad van Voice Call; Discord-spraak neemt momenteel korte segmenten op en gebruikt in plaats daarvan het batch-transcriptiepad tools.media.audio.Realtime spraak
Realtime spraak
De gebundelde
openai-Plugin registreert realtime spraak voor de Voice Call-Plugin.| Instelling | Configuratiepad | Standaard |
|---|---|---|
| Model | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime-1.5 |
| Stem | ...openai.voice | alloy |
| Temperatuur | ...openai.temperature | 0.8 |
| VAD-drempel | ...openai.vadThreshold | 0.5 |
| Stilteduur | ...openai.silenceDurationMs | 500 |
| API-sleutel | ...openai.apiKey | Valt terug op OPENAI_API_KEY |
Ondersteunt Azure OpenAI via de configuratiesleutels
azureEndpoint en azureDeployment voor backend-realtime bridges. Ondersteunt bidirectionele tool-aanroepen. Gebruikt G.711 u-law-audioformaat.Control UI Talk gebruikt OpenAI-browserrealtime-sessies met een door de Gateway geslagen
tijdelijke client-secret en een directe browser-WebRTC-SDP-uitwisseling met de
OpenAI Realtime API. Live verificatie door maintainers is beschikbaar met
OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts;
het OpenAI-deel slaat een client-secret in Node, genereert een browser-SDP-aanbod
met nepmicrofoonmedia, post dit naar OpenAI en past het SDP-antwoord toe
zonder secrets te loggen.Azure OpenAI-eindpunten
De gebundeldeopenai-provider kan een Azure OpenAI-resource targeten voor beeldgeneratie
door de basis-URL te overschrijven. Op het beeldgeneratiepad detecteert OpenClaw
Azure-hostnamen op models.providers.openai.baseUrl en schakelt automatisch over naar
de aanvraagvorm van Azure.
Realtime spraak gebruikt een apart configuratiepad
(
plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint)
en wordt niet beïnvloed door models.providers.openai.baseUrl. Zie de accordion Realtime
spraak onder Spraak en spraak voor de Azure-instellingen.- Je al een Azure OpenAI-abonnement, quota of enterprise-overeenkomst hebt
- Je regionale dataresidentie of compliancecontroles nodig hebt die Azure biedt
- Je verkeer binnen een bestaande Azure-tenancy wilt houden
Configuratie
Voor Azure-beeldgeneratie via de gebundeldeopenai-provider wijs je
models.providers.openai.baseUrl naar je Azure-resource en stel je apiKey in op
de Azure OpenAI-sleutel (niet een OpenAI Platform-sleutel):
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
- Stuurt de header
api-keyin plaats vanAuthorization: Bearer - Gebruikt implementatiegebonden paden (
/openai/deployments/{deployment}/...) - Voegt
?api-version=...toe aan elke aanvraag - Gebruikt een standaard aanvraagtime-out van 600s voor Azure-beeldgeneratieaanroepen.
timeoutMs-waarden per aanroep overschrijven deze standaard nog steeds.
Azure-routing voor het beeldgeneratiepad van de
openai-provider vereist
OpenClaw 2026.4.22 of nieuwer. Eerdere versies behandelen elke aangepaste
openai.baseUrl als het publieke OpenAI-eindpunt en mislukken bij Azure-
beeldimplementaties.API-versie
StelAZURE_OPENAI_API_VERSION in om een specifieke Azure-preview- of GA-versie
vast te zetten voor het Azure-beeldgeneratiepad:
2024-12-01-preview wanneer de variabele niet is ingesteld.
Modelnamen zijn implementatienamen
Azure OpenAI koppelt modellen aan implementaties. Voor Azure-beeldgeneratieaanvragen die via de gebundeldeopenai-provider worden gerouteerd, moet het veld model in OpenClaw
de Azure-implementatienaam zijn die je in de Azure-portal hebt geconfigureerd, niet
de publieke OpenAI-model-id.
Als je een implementatie maakt met de naam gpt-image-2-prod die gpt-image-2 levert:
openai-provider worden gerouteerd.
Regionale beschikbaarheid
Azure-beeldgeneratie is momenteel alleen beschikbaar in een subset van regio’s (bijvoorbeeldeastus2, swedencentral, polandcentral, westus3,
uaenorth). Controleer de actuele regiolijst van Microsoft voordat je een
implementatie maakt en bevestig dat het specifieke model in jouw regio wordt aangeboden.
Parameterverschillen
Azure OpenAI en publieke OpenAI accepteren niet altijd dezelfde beeldparameters. Azure kan opties weigeren die publieke OpenAI toestaat (bijvoorbeeld bepaaldebackground-waarden op gpt-image-2) of ze alleen beschikbaar maken op specifieke modelversies.
Deze verschillen komen van Azure en het onderliggende model, niet van OpenClaw.
Als een Azure-aanvraag mislukt met een validatiefout, controleer dan de
parameterset die door jouw specifieke implementatie en API-versie in de
Azure-portal wordt ondersteund.
Azure OpenAI gebruikt native transport en compat-gedrag, maar ontvangt niet
de verborgen attributieheaders van OpenClaw — zie de accordion Native vs OpenAI-compatibele
routes onder Geavanceerde configuratie.Voor chat- of Responses-verkeer op Azure (naast beeldgeneratie) gebruik je de
onboardingflow of een speciale Azure-providerconfiguratie — alleen
openai.baseUrl
neemt de Azure API/auth-vorm niet over. Er bestaat een aparte
azure-openai-responses/*-provider; zie de accordion Server-side Compaction hieronder.Geavanceerde configuratie
Transport (WebSocket vs SSE)
Transport (WebSocket vs SSE)
OpenClaw gebruikt WebSocket-first met SSE-fallback (
Gerelateerde OpenAI-docs:
"auto") voor zowel openai/* als openai-codex/*.In de modus "auto" doet OpenClaw het volgende:- Probeert één vroege WebSocket-fout opnieuw voordat wordt teruggevallen op SSE
- Markeert WebSocket na een fout ongeveer 60 seconden als gedegradeerd en gebruikt SSE tijdens de afkoelperiode
- Voegt stabiele sessie- en beurtidentiteitsheaders toe voor nieuwe pogingen en herverbindingen
- Normaliseert gebruikstellers (
input_tokens/prompt_tokens) over transportvarianten heen
| Waarde | Gedrag |
|---|---|
"auto" (standaard) | Eerst WebSocket, SSE-fallback |
"sse" | Alleen SSE afdwingen |
"websocket" | Alleen WebSocket afdwingen |
WebSocket-warming-up
WebSocket-warming-up
OpenClaw schakelt WebSocket-warming-up standaard in voor
openai/* en openai-codex/* om latentie bij de eerste beurt te verminderen.Snelle modus
Snelle modus
OpenClaw biedt een gedeelde schakelaar voor snelle modus voor
openai/* en openai-codex/*:- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). Bestaande service_tier-waarden blijven behouden en snelle modus herschrijft reasoning of text.verbosity niet.Sessie-overschrijvingen winnen van configuratie. Het wissen van de sessie-overschrijving in de Sessions-UI zet de sessie terug naar de geconfigureerde standaard.
Prioriteitsverwerking (service_tier)
Prioriteitsverwerking (service_tier)
De API van OpenAI biedt prioriteitsverwerking via Ondersteunde waarden:
service_tier. Stel dit per model in OpenClaw in:auto, default, flex, priority.Server-side Compaction (Responses API)
Server-side Compaction (Responses API)
Voor directe OpenAI Responses-modellen (
openai/* op api.openai.com) schakelt de Pi-harness-streamwrapper van de OpenAI-Plugin automatisch server-side Compaction in:- Dwingt
store: trueaf (tenzij modelcompatibiliteitsupportsStore: falseinstelt) - Injecteert
context_management: [{ type: "compaction", compact_threshold: ... }] - Standaard
compact_threshold: 70% vancontextWindow(of80000wanneer niet beschikbaar)
agents.defaults.agentRuntime.id.- Expliciet inschakelen
- Aangepaste drempel
- Uitschakelen
Nuttig voor compatibele eindpunten zoals Azure OpenAI Responses:
responsesServerCompaction regelt alleen de injectie van context_management. Directe OpenAI Responses-modellen dwingen nog steeds store: true af, tenzij compat supportsStore: false instelt.Strikte agentische GPT-modus
Strikte agentische GPT-modus
Voor uitvoeringen uit de GPT-5-familie op Met
openai/* kan OpenClaw een strikter ingebed uitvoeringscontract gebruiken:strict-agentic:- Behandelt OpenClaw een beurt met alleen een plan niet langer als succesvolle voortgang wanneer een toolactie beschikbaar is
- Probeert de beurt opnieuw met een aansporing om nu te handelen
- Schakelt
update_planautomatisch in voor substantieel werk - Toont een expliciete geblokkeerde status als het model blijft plannen zonder te handelen
Alleen van toepassing op uitvoeringen met OpenAI en Codex uit de GPT-5-familie. Andere providers en oudere modelfamilies behouden het standaardgedrag.
Native versus OpenAI-compatibele routes
Native versus OpenAI-compatibele routes
OpenClaw behandelt directe OpenAI-, Codex- en Azure OpenAI-eindpunten anders dan generieke OpenAI-compatibele
/v1-proxy’s:Native routes (openai/*, Azure OpenAI):- Behouden
reasoning: { effort: "none" }alleen voor modellen die de OpenAI-inspanningnoneondersteunen - Laten uitgeschakelde redenering weg voor modellen of proxy’s die
reasoning.effort: "none"weigeren - Stellen toolschema’s standaard in op strikte modus
- Voegen verborgen attributieheaders alleen toe op geverifieerde native hosts
- Behouden OpenAI-specifieke request shaping (
service_tier,store, reasoning-compat, prompt-cache hints)
- Gebruiken losser compat-gedrag
- Verwijderen Completions
storeuit niet-nativeopenai-completions-payloads - Accepteren geavanceerde doorvoer-JSON via
params.extra_body/params.extraBodyvoor OpenAI-compatibele Completions-proxy’s - Accepteren
params.chat_template_kwargsvoor OpenAI-compatibele Completions-proxy’s zoals vLLM - Dwingen geen strikte toolschema’s of alleen-native headers af
Gerelateerd
Modelselectie
Providers, modelverwijzingen en failover-gedrag kiezen.
Afbeeldingen genereren
Gedeelde parameters voor afbeeldingstools en providerselectie.
Video genereren
Gedeelde parameters voor videotools en providerselectie.
OAuth en authenticatie
Authenticatiegegevens en regels voor hergebruik van referenties.