Zum Hauptinhalt springen

OpenAI

OpenAI bietet Entwickler-APIs für GPT-Modelle. OpenClaw unterstützt zwei Authentifizierungswege:
  • API-Schlüssel — direkter Zugriff auf die OpenAI Platform mit nutzungsbasierter Abrechnung (openai/*-Modelle)
  • Codex-Abonnement — ChatGPT-/Codex-Anmeldung mit Abonnementzugriff (openai-codex/*-Modelle)
OpenAI unterstützt die Nutzung von Abonnement-OAuth in externen Tools und Workflows wie OpenClaw ausdrücklich.

Erste Schritte

Wählen Sie Ihre bevorzugte Authentifizierungsmethode und folgen Sie den Einrichtungsschritten.
Am besten geeignet für: direkten API-Zugriff und nutzungsbasierte Abrechnung.
1

API-Schlüssel abrufen

Erstellen oder kopieren Sie einen API-Schlüssel im OpenAI Platform-Dashboard.
2

Onboarding ausführen

openclaw onboard --auth-choice openai-api-key
Oder den Schlüssel direkt übergeben:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

Prüfen, ob das Modell verfügbar ist

openclaw models list --provider openai

Routenübersicht

ModellreferenzRouteAuthentifizierung
openai/gpt-5.4Direkte OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-proDirekte OpenAI Platform APIOPENAI_API_KEY
Die Anmeldung über ChatGPT/Codex wird über openai-codex/* geroutet, nicht über openai/*.

Konfigurationsbeispiel

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
OpenClaw stellt openai/gpt-5.3-codex-spark nicht auf dem direkten API-Pfad bereit. Live-Anfragen an die OpenAI API lehnen dieses Modell ab. Spark ist nur für Codex.

Bildgenerierung

Das gebündelte openai-Plugin registriert Bildgenerierung über das Tool image_generate.
FähigkeitWert
Standardmodellopenai/gpt-image-1
Max. Bilder pro Anfrage4
BearbeitungsmodusAktiviert (bis zu 5 Referenzbilder)
GrößenüberschreibungenUnterstützt
Seitenverhältnis / AuflösungNicht an die OpenAI Images API weitergeleitet
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-1" },
    },
  },
}
Siehe Bildgenerierung für gemeinsame Tool-Parameter, Providerauswahl und Failover-Verhalten.

Videogenerierung

Das gebündelte openai-Plugin registriert Videogenerierung über das Tool video_generate.
FähigkeitWert
Standardmodellopenai/sora-2
ModiText-zu-Video, Bild-zu-Video, Bearbeitung einzelner Videos
Referenzeingaben1 Bild oder 1 Video
GrößenüberschreibungenUnterstützt
Andere ÜberschreibungenaspectRatio, resolution, audio, watermark werden mit einer Tool-Warnung ignoriert
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
Siehe Videogenerierung für gemeinsame Tool-Parameter, Providerauswahl und Failover-Verhalten.

GPT-5-Prompt-Beitrag

OpenClaw fügt einen OpenAI-spezifischen GPT-5-Prompt-Beitrag für GPT-5-Läufe der Familien openai/* und openai-codex/* hinzu. Er befindet sich im gebündelten OpenAI-Plugin, gilt für Modell-IDs wie gpt-5, gpt-5.2, gpt-5.4 und gpt-5.4-mini und gilt nicht für ältere GPT-4.x-Modelle. Der GPT-5-Beitrag fügt einen getaggten Verhaltensvertrag für Persona-Konsistenz, Ausführungssicherheit, Tool-Disziplin, Ausgabestruktur, Abschlussprüfungen und Verifikation hinzu. Kanalspezifisches Antwortverhalten und Verhalten bei stillen Nachrichten bleiben im gemeinsamen OpenClaw-System-Prompt und in der Richtlinie für ausgehende Zustellung. Die GPT-5-Hinweise sind für passende Modelle immer aktiviert. Die Ebene für den freundlichen Interaktionsstil ist davon getrennt und konfigurierbar.
WertEffekt
"friendly" (Standard)Aktiviert die Ebene für den freundlichen Interaktionsstil
"on"Alias für "friendly"
"off"Deaktiviert nur die Ebene für den freundlichen Stil
{
  plugins: {
    entries: {
      openai: { config: { personality: "friendly" } },
    },
  },
}
Werte sind zur Laufzeit nicht case-sensitiv, daher deaktivieren sowohl "Off" als auch "off" die Ebene für den freundlichen Stil.

Stimme und Sprache

Das gebündelte openai-Plugin registriert Sprachsynthese für die Oberfläche messages.tts.
EinstellungKonfigurationspfadStandard
Modellmessages.tts.providers.openai.modelgpt-4o-mini-tts
Stimmemessages.tts.providers.openai.voicecoral
Geschwindigkeitmessages.tts.providers.openai.speed(nicht gesetzt)
Anweisungenmessages.tts.providers.openai.instructions(nicht gesetzt, nur gpt-4o-mini-tts)
Formatmessages.tts.providers.openai.responseFormatopus für Sprachnachrichten, mp3 für Dateien
API-Schlüsselmessages.tts.providers.openai.apiKeyFällt auf OPENAI_API_KEY zurück
Basis-URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
Verfügbare Modelle: gpt-4o-mini-tts, tts-1, tts-1-hd. Verfügbare Stimmen: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
Setzen Sie OPENAI_TTS_BASE_URL, um die TTS-Basis-URL zu überschreiben, ohne den Endpunkt der Chat-API zu beeinflussen.
Das gebündelte openai-Plugin registriert Realtime-Transkription für das Voice-Call-Plugin.
EinstellungKonfigurationspfadStandard
Modellplugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
Dauer der Stille...openai.silenceDurationMs800
VAD-Schwellenwert...openai.vadThreshold0.5
API-Schlüssel...openai.apiKeyFällt auf OPENAI_API_KEY zurück
Verwendet eine WebSocket-Verbindung zu wss://api.openai.com/v1/realtime mit G.711-u-law-Audio.
Das gebündelte openai-Plugin registriert Realtime-Stimme für das Voice-Call-Plugin.
EinstellungKonfigurationspfadStandard
Modellplugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime
Stimme...openai.voicealloy
Temperatur...openai.temperature0.8
VAD-Schwellenwert...openai.vadThreshold0.5
Dauer der Stille...openai.silenceDurationMs500
API-Schlüssel...openai.apiKeyFällt auf OPENAI_API_KEY zurück
Unterstützt Azure OpenAI über die Konfigurationsschlüssel azureEndpoint und azureDeployment. Unterstützt bidirektionales Tool-Calling. Verwendet das Audioformat G.711 u-law.

Erweiterte Konfiguration

OpenClaw verwendet zuerst WebSocket mit SSE-Fallback ("auto") sowohl für openai/* als auch für openai-codex/*.Im Modus "auto" führt OpenClaw Folgendes aus:
  • Wiederholt einen frühen WebSocket-Fehler einmal, bevor auf SSE zurückgefallen wird
  • Markiert WebSocket nach einem Fehler für etwa 60 Sekunden als degradiert und verwendet während der Abkühlphase SSE
  • Hängt stabile Header für Sitzungs- und Turn-Identität für Wiederholungen und Reconnects an
  • Normalisiert Nutzungszähler (input_tokens / prompt_tokens) über Transportvarianten hinweg
WertVerhalten
"auto" (Standard)Zuerst WebSocket, SSE-Fallback
"sse"Nur SSE erzwingen
"websocket"Nur WebSocket erzwingen
{
  agents: {
    defaults: {
      models: {
        "openai-codex/gpt-5.4": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
Verwandte OpenAI-Dokumentation:
OpenClaw aktiviert standardmäßig WebSocket-Warm-up für openai/*, um die Latenz beim ersten Turn zu verringern.
// Warm-up deaktivieren
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw stellt einen gemeinsamen Umschalter für den Schnellmodus sowohl für openai/* als auch für openai-codex/* bereit:
  • Chat/UI: /fast status|on|off
  • Konfiguration: agents.defaults.models["<provider>/<model>"].params.fastMode
Wenn aktiviert, ordnet OpenClaw den Schnellmodus der Prioritätsverarbeitung von OpenAI zu (service_tier = "priority"). Bestehende Werte für service_tier bleiben erhalten, und der Schnellmodus überschreibt weder reasoning noch text.verbosity.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { fastMode: true } },
        "openai-codex/gpt-5.4": { params: { fastMode: true } },
      },
    },
  },
}
Überschreibungen pro Sitzung haben Vorrang vor der Konfiguration. Wenn die Überschreibung der Sitzung in der Sitzungs-UI gelöscht wird, kehrt die Sitzung zum konfigurierten Standard zurück.
Die API von OpenAI stellt Prioritätsverarbeitung über service_tier bereit. Setzen Sie dies pro Modell in OpenClaw:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { serviceTier: "priority" } },
        "openai-codex/gpt-5.4": { params: { serviceTier: "priority" } },
      },
    },
  },
}
Unterstützte Werte: auto, default, flex, priority.
serviceTier wird nur an native OpenAI-Endpunkte (api.openai.com) und native Codex-Endpunkte (chatgpt.com/backend-api) weitergeleitet. Wenn Sie einen der Provider über einen Proxy routen, lässt OpenClaw service_tier unverändert.
Für direkte OpenAI-Responses-Modelle (openai/* auf api.openai.com) aktiviert OpenClaw automatisch serverseitige Compaction:
  • Erzwingt store: true (außer die Modellkompatibilität setzt supportsStore: false)
  • Fügt context_management: [{ type: "compaction", compact_threshold: ... }] ein
  • Standardwert für compact_threshold: 70 % von contextWindow (oder 80000, wenn nicht verfügbar)
Nützlich für kompatible Endpunkte wie Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction steuert nur das Einfügen von context_management. Direkte OpenAI-Responses-Modelle erzwingen weiterhin store: true, außer die Kompatibilität setzt supportsStore: false.
Für Läufe der GPT-5-Familie auf openai/* und openai-codex/* kann OpenClaw einen strengeren eingebetteten Ausführungsvertrag verwenden:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
Mit strict-agentic gilt in OpenClaw:
  • Ein Zug mit nur einem Plan wird nicht länger als erfolgreicher Fortschritt behandelt, wenn eine Tool-Aktion verfügbar ist
  • Der Zug wird mit einer „jetzt handeln“-Steuerung erneut versucht
  • update_plan wird für umfangreiche Arbeit automatisch aktiviert
  • Ein expliziter blockierter Zustand wird angezeigt, wenn das Modell weiter plant, ohne zu handeln
Gilt nur für Läufe der GPT-5-Familie von OpenAI und Codex. Andere Provider und ältere Modellfamilien behalten das Standardverhalten.
OpenClaw behandelt direkte OpenAI-, Codex- und Azure-OpenAI-Endpunkte anders als generische OpenAI-kompatible /v1-Proxys:Native Routen (openai/*, openai-codex/*, Azure OpenAI):
  • Behalten reasoning: { effort: "none" } nur für Modelle bei, die den OpenAI-Wert none für effort unterstützen
  • Lassen deaktiviertes Reasoning bei Modellen oder Proxys weg, die reasoning.effort: "none" ablehnen
  • Verwenden standardmäßig strikte Tool-Schemas
  • Hängen versteckte Attribution-Header nur an verifizierten nativen Hosts an
  • Behalten OpenAI-spezifische Formung von Anfragen (service_tier, store, Reasoning-Kompatibilität, Hinweise für Prompt-Cache) bei
Proxy-/kompatible Routen:
  • Verwenden lockereres Kompatibilitätsverhalten
  • Erzwingen keine strikten Tool-Schemas oder nur für native Routen bestimmte Header
Azure OpenAI verwendet natives Transport- und Kompatibilitätsverhalten, erhält aber keine versteckten Attribution-Header.

Verwandte Themen

Modellauswahl

Provider, Modellreferenzen und Failover-Verhalten auswählen.

Bildgenerierung

Gemeinsame Bild-Tool-Parameter und Providerauswahl.

Videogenerierung

Gemeinsame Video-Tool-Parameter und Providerauswahl.

OAuth und Authentifizierung

Details zur Authentifizierung und Regeln zur Wiederverwendung von Zugangsdaten.