OpenAI
OpenAI udostępnia API deweloperskie dla modeli GPT. Codex obsługuje logowanie ChatGPT dla dostępu subskrypcyjnego lub logowanie kluczem API dla dostępu rozliczanego według użycia. Chmura Codex wymaga logowania do ChatGPT. OpenAI jednoznacznie wspiera użycie subskrypcyjnego OAuth w zewnętrznych narzędziach/przepływach pracy, takich jak OpenClaw.Domyślny styl interakcji
OpenClaw domyślnie dodaje niewielką nakładkę promptu specyficzną dla OpenAI zarówno dla uruchomieńopenai/*, jak i openai-codex/*. Nakładka sprawia, że asystent pozostaje ciepły,
nastawiony na współpracę, zwięzły i bezpośredni, bez zastępowania bazowego promptu systemowego
OpenClaw.
Klucz konfiguracji:
plugins.entries.openai.config.personalityOverlay
Dozwolone wartości:
"friendly": domyślnie; włącza nakładkę specyficzną dla OpenAI."off": wyłącza nakładkę i używa tylko bazowego promptu OpenClaw.
- Dotyczy modeli
openai/*. - Dotyczy modeli
openai-codex/*. - Nie wpływa na innych providerów.
Wyłącz nakładkę promptu OpenAI
Jeśli wolisz niezmodyfikowany bazowy prompt OpenClaw, wyłącz nakładkę:Opcja A: klucz API OpenAI (OpenAI Platform)
Najlepsze dla: bezpośredniego dostępu do API i rozliczeń według użycia. Pobierz klucz API z panelu OpenAI.Konfiguracja CLI
Fragment konfiguracji
gpt-5.4 i gpt-5.4-pro dla bezpośredniego
użycia API OpenAI. OpenClaw przekazuje oba przez ścieżkę openai/* Responses.
OpenClaw celowo ukrywa przestarzały wiersz openai/gpt-5.3-codex-spark,
ponieważ bezpośrednie wywołania API OpenAI odrzucają go w ruchu produkcyjnym.
OpenClaw nie udostępnia openai/gpt-5.3-codex-spark na bezpośredniej ścieżce API OpenAI.
pi-ai nadal zawiera wbudowany wiersz dla tego modelu, ale aktywne żądania do API OpenAI
są obecnie odrzucane. W OpenClaw Spark jest traktowany jako model tylko dla Codex.
Opcja B: subskrypcja OpenAI Code (Codex)
Najlepsze dla: używania dostępu subskrypcyjnego ChatGPT/Codex zamiast klucza API. Chmura Codex wymaga logowania do ChatGPT, natomiast Codex CLI obsługuje logowanie przez ChatGPT lub klucz API.Konfiguracja CLI (Codex OAuth)
Fragment konfiguracji (subskrypcja Codex)
gpt-5.4 jako bieżący model Codex. OpenClaw
mapuje go na openai-codex/gpt-5.4 dla użycia z OAuth ChatGPT/Codex.
Jeśli onboarding ponownie użyje istniejącego logowania Codex CLI, te poświadczenia pozostają
zarządzane przez Codex CLI. Po wygaśnięciu OpenClaw najpierw ponownie odczytuje zewnętrzne źródło Codex
i, gdy provider może je odświeżyć, zapisuje odświeżone poświadczenie z powrotem
w magazynie Codex zamiast przejmować je do osobnej kopii tylko dla OpenClaw.
Jeśli Twoje konto Codex ma uprawnienia do Codex Spark, OpenClaw obsługuje również:
openai-codex/gpt-5.3-codex-spark
openai/gpt-5.3-codex-spark.
OpenClaw zachowuje również openai-codex/gpt-5.3-codex-spark, gdy pi-ai
go wykryje. Traktuj go jako zależny od uprawnień i eksperymentalny: Codex Spark jest
oddzielny od /fast dla GPT-5.4, a dostępność zależy od zalogowanego konta Codex /
ChatGPT.
Limit okna kontekstu Codex
OpenClaw traktuje metadane modelu Codex i limit kontekstu w runtime jako osobne wartości. Dlaopenai-codex/gpt-5.4:
- natywne
contextWindow:1050000 - domyślny limit
contextTokensw runtime:272000
models.providers.<provider>.models[].contextTokens:
contextWindow tylko wtedy, gdy deklarujesz lub nadpisujesz natywne metadane
modelu. Używaj contextTokens, gdy chcesz ograniczyć budżet kontekstu w runtime.
Domyślny transport
OpenClaw używapi-ai do strumieniowania modeli. Zarówno dla openai/*, jak i
openai-codex/*, domyślnym transportem jest "auto" (najpierw WebSocket, potem
fallback do SSE).
W trybie "auto" OpenClaw ponawia także jedną wczesną, możliwą do ponowienia awarię WebSocket,
zanim przejdzie do SSE. Wymuszony tryb "websocket" nadal bezpośrednio pokazuje błędy
transportu zamiast ukrywać je za fallbackiem.
Po błędzie połączenia WebSocket albo błędzie na wczesnym etapie tury w trybie "auto" OpenClaw oznacza
ścieżkę WebSocket tej sesji jako zdegradowaną na około 60 sekund i wysyła
kolejne tury przez SSE w czasie cooldown zamiast bez końca przełączać się między
transportami.
Dla natywnych endpointów rodziny OpenAI (openai/*, openai-codex/* i Azure
OpenAI Responses) OpenClaw dołącza także stabilny stan tożsamości sesji i tury
do żądań, aby ponowienia, ponowne połączenia i fallback do SSE pozostawały zgodne z tą samą
tożsamością rozmowy. Na natywnych ścieżkach rodziny OpenAI obejmuje to stabilne
nagłówki tożsamości żądania sesji/tury oraz pasujące metadane transportu.
OpenClaw normalizuje również liczniki użycia OpenAI między wariantami transportu, zanim
trafią do powierzchni sesji/statusu. Natywny ruch OpenAI/Codex Responses może
raportować użycie jako input_tokens / output_tokens albo
prompt_tokens / completion_tokens; OpenClaw traktuje je jako te same liczniki wejścia
i wyjścia dla /status, /usage i logów sesji. Gdy natywny ruch WebSocket pomija total_tokens
(albo raportuje 0), OpenClaw wraca do znormalizowanej sumy wejścia + wyjścia, aby widoki sesji/statusu nadal były wypełnione.
Możesz ustawić agents.defaults.models.<provider/model>.params.transport:
"sse": wymuś SSE"websocket": wymuś WebSocket"auto": najpierw spróbuj WebSocket, potem fallback do SSE
openai/* (Responses API) OpenClaw domyślnie włącza także rozgrzewanie WebSocket (openaiWsWarmup: true) przy użyciu transportu WebSocket.
Powiązana dokumentacja OpenAI:
Rozgrzewanie WebSocket OpenAI
Dokumentacja OpenAI opisuje rozgrzewanie jako opcjonalne. OpenClaw domyślnie włącza je dlaopenai/*, aby zmniejszyć opóźnienie pierwszej tury przy użyciu transportu WebSocket.
Wyłącz rozgrzewanie
Włącz rozgrzewanie jawnie
Priorytetowe przetwarzanie OpenAI i Codex
API OpenAI udostępnia priorytetowe przetwarzanie przezservice_tier=priority. W
OpenClaw ustaw agents.defaults.models["<provider>/<model>"].params.serviceTier,
aby przekazać to pole do natywnych endpointów OpenAI/Codex Responses.
auto, default, flex i priority.
OpenClaw przekazuje params.serviceTier zarówno do bezpośrednich żądań openai/* Responses,
jak i do żądań openai-codex/* Codex Responses, gdy te modele wskazują
na natywne endpointy OpenAI/Codex.
Ważne zachowanie:
- bezpośrednie
openai/*musi wskazywaćapi.openai.com openai-codex/*musi wskazywaćchatgpt.com/backend-api- jeśli kierujesz któregokolwiek providera przez inny base URL lub proxy, OpenClaw pozostawia
service_tierbez zmian
Tryb fast OpenAI
OpenClaw udostępnia wspólny przełącznik trybu fast dla sesjiopenai/* i
openai-codex/*:
- Chat/UI:
/fast status|on|off - Konfiguracja:
agents.defaults.models["<provider>/<model>"].params.fastMode
- bezpośrednie wywołania
openai/*Responses doapi.openai.comwysyłająservice_tier = "priority" - wywołania
openai-codex/*Responses dochatgpt.com/backend-apirównież wysyłająservice_tier = "priority" - istniejące wartości
service_tierw payloadzie są zachowywane - tryb fast nie przepisuje
reasoninganitext.verbosity
Natywne trasy OpenAI a trasy zgodne z OpenAI
OpenClaw traktuje bezpośrednie endpointy OpenAI, Codex i Azure OpenAI inaczej niż ogólne proxy/v1 zgodne z OpenAI:
- natywne trasy
openai/*,openai-codex/*i Azure OpenAI zachowująreasoning: { effort: "none" }, gdy jawnie wyłączysz reasoning - natywne trasy rodziny OpenAI domyślnie ustawiają schematy narzędzi na tryb strict
- ukryte nagłówki atrybucji OpenClaw (
originator,versioniUser-Agent) są dołączane tylko do zweryfikowanych natywnych hostów OpenAI (api.openai.com) i natywnych hostów Codex (chatgpt.com/backend-api) - natywne trasy OpenAI/Codex zachowują kształtowanie żądań specyficzne dla OpenAI, takie jak
service_tier,storew Responses, payloady zgodności OpenAI dla reasoning oraz wskazówki cache promptów - trasy w stylu proxy zgodne z OpenAI zachowują luźniejsze zachowanie zgodności i nie wymuszają schematów narzędzi strict, kształtowania żądań tylko dla tras natywnych ani ukrytych nagłówków atrybucji OpenAI/Codex
/v1 innych firm.
Kompaktowanie po stronie serwera OpenAI Responses
Dla bezpośrednich modeli OpenAI Responses (openai/* używających api: "openai-responses" z
baseUrl ustawionym na api.openai.com) OpenClaw automatycznie włącza teraz wskazówki payloadu
dla kompaktowania po stronie serwera OpenAI:
- Wymusza
store: true(chyba że zgodność modelu ustawiasupportsStore: false) - Wstrzykuje
context_management: [{ type: "compaction", compact_threshold: ... }]
compact_threshold to 70% modelowego contextWindow (lub 80000,
gdy nie jest dostępne).
Jawnie włącz kompaktowanie po stronie serwera
Użyj tego, gdy chcesz wymusić wstrzykiwaniecontext_management dla zgodnych
modeli Responses (na przykład Azure OpenAI Responses):
Włącz z niestandardowym progiem
Wyłącz kompaktowanie po stronie serwera
responsesServerCompaction kontroluje tylko wstrzykiwanie context_management.
Bezpośrednie modele OpenAI Responses nadal wymuszają store: true, chyba że zgodność ustawia
supportsStore: false.
Uwagi
- Referencje modeli zawsze używają
provider/model(zobacz /concepts/models). - Szczegóły uwierzytelniania i reguły ponownego użycia znajdują się w /concepts/oauth.