Przejdź do głównej treści

OpenAI

OpenAI udostępnia API deweloperskie dla modeli GPT. OpenClaw obsługuje dwie ścieżki uwierzytelniania:
  • Klucz API — bezpośredni dostęp do OpenAI Platform z rozliczaniem zależnym od użycia (modele openai/*)
  • Subskrypcja Codex — logowanie ChatGPT/Codex z dostępem subskrypcyjnym (modele openai-codex/*)
OpenAI jawnie wspiera użycie OAuth subskrypcji w zewnętrznych narzędziach i przepływach pracy, takich jak OpenClaw.

Pierwsze kroki

Wybierz preferowaną metodę uwierzytelniania i wykonaj kroki konfiguracji.
Najlepsze do: bezpośredniego dostępu do API i rozliczania zależnego od użycia.
1

Pobierz klucz API

Utwórz lub skopiuj klucz API z panelu OpenAI Platform.
2

Uruchom onboarding

openclaw onboard --auth-choice openai-api-key
Albo przekaż klucz bezpośrednio:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

Sprawdź, czy model jest dostępny

openclaw models list --provider openai

Podsumowanie ścieżek

Model refŚcieżkaUwierzytelnianie
openai/gpt-5.4Bezpośrednie API OpenAI PlatformOPENAI_API_KEY
openai/gpt-5.4-proBezpośrednie API OpenAI PlatformOPENAI_API_KEY
Logowanie ChatGPT/Codex jest kierowane przez openai-codex/*, a nie openai/*.

Przykład konfiguracji

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
OpenClaw nie udostępnia openai/gpt-5.3-codex-spark na bezpośredniej ścieżce API. Żądania live do OpenAI API odrzucają ten model. Spark jest dostępny tylko dla Codex.

Generowanie obrazów

Bundlowany plugin openai rejestruje generowanie obrazów przez narzędzie image_generate.
CapabilityValue
Model domyślnyopenai/gpt-image-1
Maks. liczba obrazów na żądanie4
Tryb edycjiWłączony (do 5 obrazów referencyjnych)
Nadpisania rozmiaruObsługiwane
Aspect ratio / resolutionNie są przekazywane do OpenAI Images API
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-1" },
    },
  },
}
Zobacz Generowanie obrazów, aby poznać współdzielone parametry narzędzia, wybór dostawcy i zachowanie failover.

Generowanie wideo

Bundlowany plugin openai rejestruje generowanie wideo przez narzędzie video_generate.
CapabilityValue
Model domyślnyopenai/sora-2
TrybyTekst na wideo, obraz na wideo, edycja pojedynczego wideo
Wejścia referencyjne1 obraz lub 1 wideo
Nadpisania rozmiaruObsługiwane
Inne nadpisaniaaspectRatio, resolution, audio, watermark są ignorowane z ostrzeżeniem narzędzia
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
Zobacz Generowanie wideo, aby poznać współdzielone parametry narzędzia, wybór dostawcy i zachowanie failover.

Wkład promptu GPT-5

OpenClaw dodaje specyficzny dla OpenAI wkład promptu GPT-5 dla uruchomień rodziny GPT-5 openai/* i openai-codex/*. Znajduje się on w bundlowanym pluginie OpenAI, ma zastosowanie do identyfikatorów modeli takich jak gpt-5, gpt-5.2, gpt-5.4 i gpt-5.4-mini, i nie ma zastosowania do starszych modeli GPT-4.x. Wkład GPT-5 dodaje tagowany kontrakt zachowania dla trwałości persony, bezpieczeństwa wykonywania, dyscypliny narzędzi, kształtu wyjścia, kontroli ukończenia i weryfikacji. Zachowanie odpowiedzi specyficzne dla kanału i zachowanie cichych wiadomości pozostają we współdzielonym promptie systemowym OpenClaw i zasadach dostarczania wychodzącego. Wskazówki GPT-5 są zawsze włączone dla pasujących modeli. Warstwa przyjaznego stylu interakcji jest oddzielna i konfigurowalna.
ValueEffect
"friendly" (domyślnie)Włącz przyjazną warstwę stylu interakcji
"on"Alias dla "friendly"
"off"Wyłącz tylko przyjazną warstwę stylu
{
  plugins: {
    entries: {
      openai: { config: { personality: "friendly" } },
    },
  },
}
Wartości w runtime nie uwzględniają wielkości liter, więc zarówno "Off", jak i "off" wyłączają przyjazną warstwę stylu.

Głos i mowa

Bundlowany plugin openai rejestruje syntezę mowy dla powierzchni messages.tts.
SettingConfig pathDefault
Modelmessages.tts.providers.openai.modelgpt-4o-mini-tts
Głosmessages.tts.providers.openai.voicecoral
Prędkośćmessages.tts.providers.openai.speed(nieustawione)
Instructionsmessages.tts.providers.openai.instructions(nieustawione, tylko gpt-4o-mini-tts)
Formatmessages.tts.providers.openai.responseFormatopus dla notatek głosowych, mp3 dla plików
Klucz APImessages.tts.providers.openai.apiKeyZapasowo OPENAI_API_KEY
Base URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
Dostępne modele: gpt-4o-mini-tts, tts-1, tts-1-hd. Dostępne głosy: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
Ustaw OPENAI_TTS_BASE_URL, aby nadpisać bazowy URL TTS bez wpływu na endpoint API czatu.
Bundlowany plugin openai rejestruje realtime transcription dla pluginu Voice Call.
SettingConfig pathDefault
Modelplugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
Czas trwania ciszy...openai.silenceDurationMs800
Próg VAD...openai.vadThreshold0.5
Klucz API...openai.apiKeyZapasowo OPENAI_API_KEY
Używa połączenia WebSocket do wss://api.openai.com/v1/realtime z dźwiękiem G.711 u-law.
Bundlowany plugin openai rejestruje realtime voice dla pluginu Voice Call.
SettingConfig pathDefault
Modelplugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime
Głos...openai.voicealloy
Temperatura...openai.temperature0.8
Próg VAD...openai.vadThreshold0.5
Czas trwania ciszy...openai.silenceDurationMs500
Klucz API...openai.apiKeyZapasowo OPENAI_API_KEY
Obsługuje Azure OpenAI przez klucze konfiguracji azureEndpoint i azureDeployment. Obsługuje dwukierunkowe wywoływanie narzędzi. Używa formatu dźwięku G.711 u-law.

Zaawansowana konfiguracja

OpenClaw używa trybu WebSocket-first z zapasowym SSE ("auto") zarówno dla openai/*, jak i openai-codex/*.W trybie "auto" OpenClaw:
  • Ponawia jedną wczesną awarię WebSocket przed przejściem na SSE
  • Po awarii oznacza WebSocket jako zdegradowany na około 60 sekund i używa SSE podczas okresu schłodzenia
  • Dołącza stabilne nagłówki tożsamości sesji i tury dla ponowień i ponownych połączeń
  • Normalizuje liczniki użycia (input_tokens / prompt_tokens) między wariantami transportu
ValueBehavior
"auto" (domyślnie)Najpierw WebSocket, zapasowo SSE
"sse"Wymuś tylko SSE
"websocket"Wymuś tylko WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai-codex/gpt-5.4": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
Powiązana dokumentacja OpenAI:
OpenClaw domyślnie włącza rozgrzewanie WebSocket dla openai/*, aby zmniejszyć opóźnienie pierwszej tury.
// Wyłącz rozgrzewanie
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw udostępnia współdzielony przełącznik trybu szybkiego zarówno dla openai/*, jak i openai-codex/*:
  • Czat/UI: /fast status|on|off
  • Konfiguracja: agents.defaults.models["<provider>/<model>"].params.fastMode
Po włączeniu OpenClaw mapuje tryb szybki na przetwarzanie priorytetowe OpenAI (service_tier = "priority"). Istniejące wartości service_tier są zachowywane, a tryb szybki nie przepisuje reasoning ani text.verbosity.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { fastMode: true } },
        "openai-codex/gpt-5.4": { params: { fastMode: true } },
      },
    },
  },
}
Nadpisania sesji mają pierwszeństwo przed konfiguracją. Wyczyszczenie nadpisania sesji w interfejsie Sessions przywraca sesję do skonfigurowanej wartości domyślnej.
API OpenAI udostępnia przetwarzanie priorytetowe przez service_tier. Ustaw je per model w OpenClaw:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { serviceTier: "priority" } },
        "openai-codex/gpt-5.4": { params: { serviceTier: "priority" } },
      },
    },
  },
}
Obsługiwane wartości: auto, default, flex, priority.
serviceTier jest przekazywane tylko do natywnych endpointów OpenAI (api.openai.com) i natywnych endpointów Codex (chatgpt.com/backend-api). Jeśli kierujesz któregoś dostawcę przez proxy, OpenClaw pozostawia service_tier bez zmian.
Dla bezpośrednich modeli OpenAI Responses (openai/* na api.openai.com) OpenClaw automatycznie włącza Compaction po stronie serwera:
  • Wymusza store: true (chyba że zgodność modelu ustawia supportsStore: false)
  • Wstrzykuje context_management: [{ type: "compaction", compact_threshold: ... }]
  • Domyślny compact_threshold: 70% contextWindow (lub 80000, gdy jest niedostępne)
Przydatne dla zgodnych endpointów, takich jak Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction kontroluje tylko wstrzykiwanie context_management. Bezpośrednie modele OpenAI Responses nadal wymuszają store: true, chyba że zgodność ustawia supportsStore: false.
Dla uruchomień rodziny GPT-5 na openai/* i openai-codex/* OpenClaw może używać bardziej restrykcyjnego osadzonego kontraktu wykonania:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
Przy strict-agentic OpenClaw:
  • Nie traktuje już tury wyłącznie z planem jako udanego postępu, gdy dostępne jest działanie narzędzia
  • Ponawia turę z ukierunkowaniem act-now
  • Automatycznie włącza update_plan dla istotnej pracy
  • Pokazuje jawny stan zablokowania, jeśli model nadal planuje bez działania
Ograniczone tylko do uruchomień rodziny GPT-5 OpenAI i Codex. Inni dostawcy i starsze rodziny modeli zachowują domyślne zachowanie.
OpenClaw traktuje bezpośrednie endpointy OpenAI, Codex i Azure OpenAI inaczej niż ogólne proxy /v1 kompatybilne z OpenAI:Natywne ścieżki (openai/*, openai-codex/*, Azure OpenAI):
  • Zachowują reasoning: { effort: "none" } tylko dla modeli obsługujących OpenAI none effort
  • Pomijają wyłączone reasoning dla modeli lub proxy, które odrzucają reasoning.effort: "none"
  • Domyślnie ustawiają ścisły tryb schematów narzędzi
  • Dołączają ukryte nagłówki atrybucji tylko na zweryfikowanych natywnych hostach
  • Zachowują kształtowanie żądań dostępne tylko w OpenAI (service_tier, store, zgodność reasoning, wskazówki prompt-cache)
Ścieżki proxy/kompatybilne:
  • Używają luźniejszego zachowania zgodności
  • Nie wymuszają ścisłych schematów narzędzi ani nagłówków tylko dla natywnych ścieżek
Azure OpenAI używa natywnego transportu i zachowania zgodności, ale nie otrzymuje ukrytych nagłówków atrybucji.

Powiązane

Wybór modeli

Wybieranie dostawców, model-ref i zachowania failover.

Generowanie obrazów

Współdzielone parametry narzędzia obrazów i wybór dostawcy.

Generowanie wideo

Współdzielone parametry narzędzia wideo i wybór dostawcy.

OAuth i uwierzytelnianie

Szczegóły uwierzytelniania i zasady ponownego użycia poświadczeń.