OpenAI
OpenAI bietet Entwickler-APIs für GPT-Modelle. OpenClaw unterstützt zwei Authentifizierungswege:- API-Schlüssel — direkter Zugriff auf die OpenAI Platform mit nutzungsbasierter Abrechnung (
openai/*-Modelle) - Codex-Abonnement — ChatGPT-/Codex-Anmeldung mit Abonnementzugriff (
openai-codex/*-Modelle)
Erste Schritte
Wählen Sie Ihre bevorzugte Authentifizierungsmethode und folgen Sie den Einrichtungsschritten.- API-Schlüssel (OpenAI Platform)
- Codex-Abonnement
Am besten geeignet für: direkten API-Zugriff und nutzungsbasierte Abrechnung.
API-Schlüssel abrufen
Erstellen oder kopieren Sie einen API-Schlüssel im OpenAI Platform-Dashboard.
Routenübersicht
| Modellreferenz | Route | Authentifizierung |
|---|---|---|
openai/gpt-5.4 | Direkte OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-pro | Direkte OpenAI Platform API | OPENAI_API_KEY |
Die Anmeldung über ChatGPT/Codex wird über
openai-codex/* geroutet, nicht über openai/*.Konfigurationsbeispiel
Bildgenerierung
Das gebündelteopenai-Plugin registriert Bildgenerierung über das Tool image_generate.
| Fähigkeit | Wert |
|---|---|
| Standardmodell | openai/gpt-image-1 |
| Max. Bilder pro Anfrage | 4 |
| Bearbeitungsmodus | Aktiviert (bis zu 5 Referenzbilder) |
| Größenüberschreibungen | Unterstützt |
| Seitenverhältnis / Auflösung | Nicht an die OpenAI Images API weitergeleitet |
Siehe Bildgenerierung für gemeinsame Tool-Parameter, Providerauswahl und Failover-Verhalten.
Videogenerierung
Das gebündelteopenai-Plugin registriert Videogenerierung über das Tool video_generate.
| Fähigkeit | Wert |
|---|---|
| Standardmodell | openai/sora-2 |
| Modi | Text-zu-Video, Bild-zu-Video, Bearbeitung einzelner Videos |
| Referenzeingaben | 1 Bild oder 1 Video |
| Größenüberschreibungen | Unterstützt |
| Andere Überschreibungen | aspectRatio, resolution, audio, watermark werden mit einer Tool-Warnung ignoriert |
Siehe Videogenerierung für gemeinsame Tool-Parameter, Providerauswahl und Failover-Verhalten.
GPT-5-Prompt-Beitrag
OpenClaw fügt einen OpenAI-spezifischen GPT-5-Prompt-Beitrag für GPT-5-Läufe der Familienopenai/* und openai-codex/* hinzu. Er befindet sich im gebündelten OpenAI-Plugin, gilt für Modell-IDs wie gpt-5, gpt-5.2, gpt-5.4 und gpt-5.4-mini und gilt nicht für ältere GPT-4.x-Modelle.
Der GPT-5-Beitrag fügt einen getaggten Verhaltensvertrag für Persona-Konsistenz, Ausführungssicherheit, Tool-Disziplin, Ausgabestruktur, Abschlussprüfungen und Verifikation hinzu. Kanalspezifisches Antwortverhalten und Verhalten bei stillen Nachrichten bleiben im gemeinsamen OpenClaw-System-Prompt und in der Richtlinie für ausgehende Zustellung. Die GPT-5-Hinweise sind für passende Modelle immer aktiviert. Die Ebene für den freundlichen Interaktionsstil ist davon getrennt und konfigurierbar.
| Wert | Effekt |
|---|---|
"friendly" (Standard) | Aktiviert die Ebene für den freundlichen Interaktionsstil |
"on" | Alias für "friendly" |
"off" | Deaktiviert nur die Ebene für den freundlichen Stil |
- Konfiguration
- CLI
Stimme und Sprache
Sprachsynthese (TTS)
Sprachsynthese (TTS)
Das gebündelte
Verfügbare Modelle:
openai-Plugin registriert Sprachsynthese für die Oberfläche messages.tts.| Einstellung | Konfigurationspfad | Standard |
|---|---|---|
| Modell | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Stimme | messages.tts.providers.openai.voice | coral |
| Geschwindigkeit | messages.tts.providers.openai.speed | (nicht gesetzt) |
| Anweisungen | messages.tts.providers.openai.instructions | (nicht gesetzt, nur gpt-4o-mini-tts) |
| Format | messages.tts.providers.openai.responseFormat | opus für Sprachnachrichten, mp3 für Dateien |
| API-Schlüssel | messages.tts.providers.openai.apiKey | Fällt auf OPENAI_API_KEY zurück |
| Basis-URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Verfügbare Stimmen: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Setzen Sie
OPENAI_TTS_BASE_URL, um die TTS-Basis-URL zu überschreiben, ohne den Endpunkt der Chat-API zu beeinflussen.Realtime-Transkription
Realtime-Transkription
Das gebündelte
openai-Plugin registriert Realtime-Transkription für das Voice-Call-Plugin.| Einstellung | Konfigurationspfad | Standard |
|---|---|---|
| Modell | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Dauer der Stille | ...openai.silenceDurationMs | 800 |
| VAD-Schwellenwert | ...openai.vadThreshold | 0.5 |
| API-Schlüssel | ...openai.apiKey | Fällt auf OPENAI_API_KEY zurück |
Verwendet eine WebSocket-Verbindung zu
wss://api.openai.com/v1/realtime mit G.711-u-law-Audio.Realtime-Stimme
Realtime-Stimme
Das gebündelte
openai-Plugin registriert Realtime-Stimme für das Voice-Call-Plugin.| Einstellung | Konfigurationspfad | Standard |
|---|---|---|
| Modell | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| Stimme | ...openai.voice | alloy |
| Temperatur | ...openai.temperature | 0.8 |
| VAD-Schwellenwert | ...openai.vadThreshold | 0.5 |
| Dauer der Stille | ...openai.silenceDurationMs | 500 |
| API-Schlüssel | ...openai.apiKey | Fällt auf OPENAI_API_KEY zurück |
Unterstützt Azure OpenAI über die Konfigurationsschlüssel
azureEndpoint und azureDeployment. Unterstützt bidirektionales Tool-Calling. Verwendet das Audioformat G.711 u-law.Erweiterte Konfiguration
Transport (WebSocket vs SSE)
Transport (WebSocket vs SSE)
OpenClaw verwendet zuerst WebSocket mit SSE-Fallback (
Verwandte OpenAI-Dokumentation:
"auto") sowohl für openai/* als auch für openai-codex/*.Im Modus "auto" führt OpenClaw Folgendes aus:- Wiederholt einen frühen WebSocket-Fehler einmal, bevor auf SSE zurückgefallen wird
- Markiert WebSocket nach einem Fehler für etwa 60 Sekunden als degradiert und verwendet während der Abkühlphase SSE
- Hängt stabile Header für Sitzungs- und Turn-Identität für Wiederholungen und Reconnects an
- Normalisiert Nutzungszähler (
input_tokens/prompt_tokens) über Transportvarianten hinweg
| Wert | Verhalten |
|---|---|
"auto" (Standard) | Zuerst WebSocket, SSE-Fallback |
"sse" | Nur SSE erzwingen |
"websocket" | Nur WebSocket erzwingen |
WebSocket-Warm-up
WebSocket-Warm-up
OpenClaw aktiviert standardmäßig WebSocket-Warm-up für
openai/*, um die Latenz beim ersten Turn zu verringern.Schnellmodus
Schnellmodus
OpenClaw stellt einen gemeinsamen Umschalter für den Schnellmodus sowohl für
openai/* als auch für openai-codex/* bereit:- Chat/UI:
/fast status|on|off - Konfiguration:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). Bestehende Werte für service_tier bleiben erhalten, und der Schnellmodus überschreibt weder reasoning noch text.verbosity.Überschreibungen pro Sitzung haben Vorrang vor der Konfiguration. Wenn die Überschreibung der Sitzung in der Sitzungs-UI gelöscht wird, kehrt die Sitzung zum konfigurierten Standard zurück.
Prioritätsverarbeitung (service_tier)
Prioritätsverarbeitung (service_tier)
Die API von OpenAI stellt Prioritätsverarbeitung über Unterstützte Werte:
service_tier bereit. Setzen Sie dies pro Modell in OpenClaw:auto, default, flex, priority.Serverseitige Compaction (Responses API)
Serverseitige Compaction (Responses API)
Für direkte OpenAI-Responses-Modelle (
openai/* auf api.openai.com) aktiviert OpenClaw automatisch serverseitige Compaction:- Erzwingt
store: true(außer die Modellkompatibilität setztsupportsStore: false) - Fügt
context_management: [{ type: "compaction", compact_threshold: ... }]ein - Standardwert für
compact_threshold: 70 % voncontextWindow(oder80000, wenn nicht verfügbar)
- Explizit aktivieren
- Benutzerdefinierter Schwellenwert
- Deaktivieren
Nützlich für kompatible Endpunkte wie Azure OpenAI Responses:
responsesServerCompaction steuert nur das Einfügen von context_management. Direkte OpenAI-Responses-Modelle erzwingen weiterhin store: true, außer die Kompatibilität setzt supportsStore: false.Strikter agentischer GPT-Modus
Strikter agentischer GPT-Modus
Für Läufe der GPT-5-Familie auf Mit
openai/* und openai-codex/* kann OpenClaw einen strengeren eingebetteten Ausführungsvertrag verwenden:strict-agentic gilt in OpenClaw:- Ein Zug mit nur einem Plan wird nicht länger als erfolgreicher Fortschritt behandelt, wenn eine Tool-Aktion verfügbar ist
- Der Zug wird mit einer „jetzt handeln“-Steuerung erneut versucht
update_planwird für umfangreiche Arbeit automatisch aktiviert- Ein expliziter blockierter Zustand wird angezeigt, wenn das Modell weiter plant, ohne zu handeln
Gilt nur für Läufe der GPT-5-Familie von OpenAI und Codex. Andere Provider und ältere Modellfamilien behalten das Standardverhalten.
Native vs. OpenAI-kompatible Routen
Native vs. OpenAI-kompatible Routen
OpenClaw behandelt direkte OpenAI-, Codex- und Azure-OpenAI-Endpunkte anders als generische OpenAI-kompatible
/v1-Proxys:Native Routen (openai/*, openai-codex/*, Azure OpenAI):- Behalten
reasoning: { effort: "none" }nur für Modelle bei, die den OpenAI-Wertnonefür effort unterstützen - Lassen deaktiviertes Reasoning bei Modellen oder Proxys weg, die
reasoning.effort: "none"ablehnen - Verwenden standardmäßig strikte Tool-Schemas
- Hängen versteckte Attribution-Header nur an verifizierten nativen Hosts an
- Behalten OpenAI-spezifische Formung von Anfragen (
service_tier,store, Reasoning-Kompatibilität, Hinweise für Prompt-Cache) bei
- Verwenden lockereres Kompatibilitätsverhalten
- Erzwingen keine strikten Tool-Schemas oder nur für native Routen bestimmte Header
Verwandte Themen
Modellauswahl
Provider, Modellreferenzen und Failover-Verhalten auswählen.
Bildgenerierung
Gemeinsame Bild-Tool-Parameter und Providerauswahl.
Videogenerierung
Gemeinsame Video-Tool-Parameter und Providerauswahl.
OAuth und Authentifizierung
Details zur Authentifizierung und Regeln zur Wiederverwendung von Zugangsdaten.