OpenAI
OpenAI udostępnia API deweloperskie dla modeli GPT. OpenClaw obsługuje dwie ścieżki uwierzytelniania:- Klucz API — bezpośredni dostęp do OpenAI Platform z rozliczaniem zależnym od użycia (modele
openai/*) - Subskrypcja Codex — logowanie ChatGPT/Codex z dostępem subskrypcyjnym (modele
openai-codex/*)
Pierwsze kroki
Wybierz preferowaną metodę uwierzytelniania i wykonaj kroki konfiguracji.- Klucz API (OpenAI Platform)
- Subskrypcja Codex
Najlepsze do: bezpośredniego dostępu do API i rozliczania zależnego od użycia.
Pobierz klucz API
Utwórz lub skopiuj klucz API z panelu OpenAI Platform.
Podsumowanie ścieżek
| Model ref | Ścieżka | Uwierzytelnianie |
|---|---|---|
openai/gpt-5.4 | Bezpośrednie API OpenAI Platform | OPENAI_API_KEY |
openai/gpt-5.4-pro | Bezpośrednie API OpenAI Platform | OPENAI_API_KEY |
Logowanie ChatGPT/Codex jest kierowane przez
openai-codex/*, a nie openai/*.Przykład konfiguracji
Generowanie obrazów
Bundlowany pluginopenai rejestruje generowanie obrazów przez narzędzie image_generate.
| Capability | Value |
|---|---|
| Model domyślny | openai/gpt-image-1 |
| Maks. liczba obrazów na żądanie | 4 |
| Tryb edycji | Włączony (do 5 obrazów referencyjnych) |
| Nadpisania rozmiaru | Obsługiwane |
| Aspect ratio / resolution | Nie są przekazywane do OpenAI Images API |
Zobacz Generowanie obrazów, aby poznać współdzielone parametry narzędzia, wybór dostawcy i zachowanie failover.
Generowanie wideo
Bundlowany pluginopenai rejestruje generowanie wideo przez narzędzie video_generate.
| Capability | Value |
|---|---|
| Model domyślny | openai/sora-2 |
| Tryby | Tekst na wideo, obraz na wideo, edycja pojedynczego wideo |
| Wejścia referencyjne | 1 obraz lub 1 wideo |
| Nadpisania rozmiaru | Obsługiwane |
| Inne nadpisania | aspectRatio, resolution, audio, watermark są ignorowane z ostrzeżeniem narzędzia |
Zobacz Generowanie wideo, aby poznać współdzielone parametry narzędzia, wybór dostawcy i zachowanie failover.
Wkład promptu GPT-5
OpenClaw dodaje specyficzny dla OpenAI wkład promptu GPT-5 dla uruchomień rodziny GPT-5openai/* i openai-codex/*. Znajduje się on w bundlowanym pluginie OpenAI, ma zastosowanie do identyfikatorów modeli takich jak gpt-5, gpt-5.2, gpt-5.4 i gpt-5.4-mini, i nie ma zastosowania do starszych modeli GPT-4.x.
Wkład GPT-5 dodaje tagowany kontrakt zachowania dla trwałości persony, bezpieczeństwa wykonywania, dyscypliny narzędzi, kształtu wyjścia, kontroli ukończenia i weryfikacji. Zachowanie odpowiedzi specyficzne dla kanału i zachowanie cichych wiadomości pozostają we współdzielonym promptie systemowym OpenClaw i zasadach dostarczania wychodzącego. Wskazówki GPT-5 są zawsze włączone dla pasujących modeli. Warstwa przyjaznego stylu interakcji jest oddzielna i konfigurowalna.
| Value | Effect |
|---|---|
"friendly" (domyślnie) | Włącz przyjazną warstwę stylu interakcji |
"on" | Alias dla "friendly" |
"off" | Wyłącz tylko przyjazną warstwę stylu |
- Konfiguracja
- CLI
Głos i mowa
Synteza mowy (TTS)
Synteza mowy (TTS)
Bundlowany plugin
Dostępne modele:
openai rejestruje syntezę mowy dla powierzchni messages.tts.| Setting | Config path | Default |
|---|---|---|
| Model | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| Głos | messages.tts.providers.openai.voice | coral |
| Prędkość | messages.tts.providers.openai.speed | (nieustawione) |
| Instructions | messages.tts.providers.openai.instructions | (nieustawione, tylko gpt-4o-mini-tts) |
| Format | messages.tts.providers.openai.responseFormat | opus dla notatek głosowych, mp3 dla plików |
| Klucz API | messages.tts.providers.openai.apiKey | Zapasowo OPENAI_API_KEY |
| Base URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. Dostępne głosy: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.Ustaw
OPENAI_TTS_BASE_URL, aby nadpisać bazowy URL TTS bez wpływu na endpoint API czatu.Realtime transcription
Realtime transcription
Bundlowany plugin
openai rejestruje realtime transcription dla pluginu Voice Call.| Setting | Config path | Default |
|---|---|---|
| Model | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| Czas trwania ciszy | ...openai.silenceDurationMs | 800 |
| Próg VAD | ...openai.vadThreshold | 0.5 |
| Klucz API | ...openai.apiKey | Zapasowo OPENAI_API_KEY |
Używa połączenia WebSocket do
wss://api.openai.com/v1/realtime z dźwiękiem G.711 u-law.Realtime voice
Realtime voice
Bundlowany plugin
openai rejestruje realtime voice dla pluginu Voice Call.| Setting | Config path | Default |
|---|---|---|
| Model | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| Głos | ...openai.voice | alloy |
| Temperatura | ...openai.temperature | 0.8 |
| Próg VAD | ...openai.vadThreshold | 0.5 |
| Czas trwania ciszy | ...openai.silenceDurationMs | 500 |
| Klucz API | ...openai.apiKey | Zapasowo OPENAI_API_KEY |
Obsługuje Azure OpenAI przez klucze konfiguracji
azureEndpoint i azureDeployment. Obsługuje dwukierunkowe wywoływanie narzędzi. Używa formatu dźwięku G.711 u-law.Zaawansowana konfiguracja
Transport (WebSocket vs SSE)
Transport (WebSocket vs SSE)
OpenClaw używa trybu WebSocket-first z zapasowym SSE (
Powiązana dokumentacja OpenAI:
"auto") zarówno dla openai/*, jak i openai-codex/*.W trybie "auto" OpenClaw:- Ponawia jedną wczesną awarię WebSocket przed przejściem na SSE
- Po awarii oznacza WebSocket jako zdegradowany na około 60 sekund i używa SSE podczas okresu schłodzenia
- Dołącza stabilne nagłówki tożsamości sesji i tury dla ponowień i ponownych połączeń
- Normalizuje liczniki użycia (
input_tokens/prompt_tokens) między wariantami transportu
| Value | Behavior |
|---|---|
"auto" (domyślnie) | Najpierw WebSocket, zapasowo SSE |
"sse" | Wymuś tylko SSE |
"websocket" | Wymuś tylko WebSocket |
Rozgrzewanie WebSocket
Rozgrzewanie WebSocket
OpenClaw domyślnie włącza rozgrzewanie WebSocket dla
openai/*, aby zmniejszyć opóźnienie pierwszej tury.Tryb szybki
Tryb szybki
OpenClaw udostępnia współdzielony przełącznik trybu szybkiego zarówno dla
openai/*, jak i openai-codex/*:- Czat/UI:
/fast status|on|off - Konfiguracja:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority"). Istniejące wartości service_tier są zachowywane, a tryb szybki nie przepisuje reasoning ani text.verbosity.Nadpisania sesji mają pierwszeństwo przed konfiguracją. Wyczyszczenie nadpisania sesji w interfejsie Sessions przywraca sesję do skonfigurowanej wartości domyślnej.
Przetwarzanie priorytetowe (service_tier)
Przetwarzanie priorytetowe (service_tier)
API OpenAI udostępnia przetwarzanie priorytetowe przez Obsługiwane wartości:
service_tier. Ustaw je per model w OpenClaw:auto, default, flex, priority.Compaction po stronie serwera (Responses API)
Compaction po stronie serwera (Responses API)
Dla bezpośrednich modeli OpenAI Responses (
openai/* na api.openai.com) OpenClaw automatycznie włącza Compaction po stronie serwera:- Wymusza
store: true(chyba że zgodność modelu ustawiasupportsStore: false) - Wstrzykuje
context_management: [{ type: "compaction", compact_threshold: ... }] - Domyślny
compact_threshold: 70%contextWindow(lub80000, gdy jest niedostępne)
- Włącz jawnie
- Własny próg
- Wyłącz
Przydatne dla zgodnych endpointów, takich jak Azure OpenAI Responses:
responsesServerCompaction kontroluje tylko wstrzykiwanie context_management. Bezpośrednie modele OpenAI Responses nadal wymuszają store: true, chyba że zgodność ustawia supportsStore: false.Ścisły tryb agentowy GPT
Ścisły tryb agentowy GPT
Dla uruchomień rodziny GPT-5 na Przy
openai/* i openai-codex/* OpenClaw może używać bardziej restrykcyjnego osadzonego kontraktu wykonania:strict-agentic OpenClaw:- Nie traktuje już tury wyłącznie z planem jako udanego postępu, gdy dostępne jest działanie narzędzia
- Ponawia turę z ukierunkowaniem act-now
- Automatycznie włącza
update_plandla istotnej pracy - Pokazuje jawny stan zablokowania, jeśli model nadal planuje bez działania
Ograniczone tylko do uruchomień rodziny GPT-5 OpenAI i Codex. Inni dostawcy i starsze rodziny modeli zachowują domyślne zachowanie.
Natywne ścieżki vs ścieżki kompatybilne z OpenAI
Natywne ścieżki vs ścieżki kompatybilne z OpenAI
OpenClaw traktuje bezpośrednie endpointy OpenAI, Codex i Azure OpenAI inaczej niż ogólne proxy
/v1 kompatybilne z OpenAI:Natywne ścieżki (openai/*, openai-codex/*, Azure OpenAI):- Zachowują
reasoning: { effort: "none" }tylko dla modeli obsługujących OpenAInoneeffort - Pomijają wyłączone reasoning dla modeli lub proxy, które odrzucają
reasoning.effort: "none" - Domyślnie ustawiają ścisły tryb schematów narzędzi
- Dołączają ukryte nagłówki atrybucji tylko na zweryfikowanych natywnych hostach
- Zachowują kształtowanie żądań dostępne tylko w OpenAI (
service_tier,store, zgodność reasoning, wskazówki prompt-cache)
- Używają luźniejszego zachowania zgodności
- Nie wymuszają ścisłych schematów narzędzi ani nagłówków tylko dla natywnych ścieżek
Powiązane
Wybór modeli
Wybieranie dostawców, model-ref i zachowania failover.
Generowanie obrazów
Współdzielone parametry narzędzia obrazów i wybór dostawcy.
Generowanie wideo
Współdzielone parametry narzędzia wideo i wybór dostawcy.
OAuth i uwierzytelnianie
Szczegóły uwierzytelniania i zasady ponownego użycia poświadczeń.