OpenAI
OpenAI는 GPT 모델용 개발자 API를 제공합니다. OpenClaw는 두 가지 인증 경로를 지원합니다.- API 키 — 사용량 기반 과금이 적용되는 직접 OpenAI Platform 액세스(
openai/*모델) - Codex 구독 — 구독 액세스를 사용하는 ChatGPT/Codex 로그인(
openai-codex/*모델)
시작하기
선호하는 인증 방법을 선택하고 설정 단계를 따르세요.- API 키(OpenAI Platform)
- Codex 구독
적합한 대상: 직접 API 액세스 및 사용량 기반 과금.
경로 요약
| Model ref | 경로 | Auth |
|---|---|---|
openai/gpt-5.4 | 직접 OpenAI Platform API | OPENAI_API_KEY |
openai/gpt-5.4-pro | 직접 OpenAI Platform API | OPENAI_API_KEY |
ChatGPT/Codex 로그인은
openai/*가 아니라 openai-codex/*를 통해 라우팅됩니다.구성 예시
이미지 생성
번들openai Plugin은 image_generate 도구를 통해 이미지 생성을 등록합니다.
| Capability | Value |
|---|---|
| 기본 모델 | openai/gpt-image-1 |
| 요청당 최대 이미지 수 | 4 |
| 편집 모드 | 활성화됨(최대 참조 이미지 5개) |
| 크기 재정의 | 지원됨 |
| 종횡비 / 해상도 | OpenAI Images API로 전달되지 않음 |
공통 도구 매개변수, provider 선택, failover 동작은 이미지 생성을 참조하세요.
비디오 생성
번들openai Plugin은 video_generate 도구를 통해 비디오 생성을 등록합니다.
| Capability | Value |
|---|---|
| 기본 모델 | openai/sora-2 |
| 모드 | 텍스트-비디오, 이미지-비디오, 단일 비디오 편집 |
| 참조 입력 | 이미지 1개 또는 비디오 1개 |
| 크기 재정의 | 지원됨 |
| 기타 재정의 | aspectRatio, resolution, audio, watermark는 도구 경고와 함께 무시됨 |
공통 도구 매개변수, provider 선택, failover 동작은 비디오 생성을 참조하세요.
personality 오버레이
OpenClaw는openai/* 및 openai-codex/* 실행에 대해 OpenAI 전용의 작은 프롬프트 오버레이를 추가합니다. 이 오버레이는 기본 시스템 프롬프트를 대체하지 않으면서 어시스턴트를 더 따뜻하고, 협력적이며, 간결하고, 약간 더 감정적으로 풍부하게 유지합니다.
| Value | 효과 |
|---|---|
"friendly" (기본값) | OpenAI 전용 오버레이 활성화 |
"on" | "friendly"의 별칭 |
"off" | 기본 OpenClaw 프롬프트만 사용 |
- 구성
- CLI
음성 및 speech
음성 합성(TTS)
음성 합성(TTS)
번들
사용 가능한 모델:
openai Plugin은 messages.tts 표면에 대해 음성 합성을 등록합니다.| Setting | Config path | Default |
|---|---|---|
| 모델 | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| 음성 | messages.tts.providers.openai.voice | coral |
| 속도 | messages.tts.providers.openai.speed | (설정되지 않음) |
| 지시 | messages.tts.providers.openai.instructions | (설정되지 않음, gpt-4o-mini-tts 전용) |
| 형식 | messages.tts.providers.openai.responseFormat | 음성 노트는 opus, 파일은 mp3 |
| API 키 | messages.tts.providers.openai.apiKey | OPENAI_API_KEY로 fallback |
| Base URL | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
gpt-4o-mini-tts, tts-1, tts-1-hd. 사용 가능한 음성: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.채팅 API 엔드포인트에 영향을 주지 않고 TTS base URL을 재정의하려면
OPENAI_TTS_BASE_URL을 설정하세요.실시간 전사
실시간 전사
번들
openai Plugin은 Voice Call Plugin에 대해 실시간 전사를 등록합니다.| Setting | Config path | Default |
|---|---|---|
| 모델 | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| 무음 지속 시간 | ...openai.silenceDurationMs | 800 |
| VAD 임계값 | ...openai.vadThreshold | 0.5 |
| API 키 | ...openai.apiKey | OPENAI_API_KEY로 fallback |
G.711 u-law 오디오를 사용해
wss://api.openai.com/v1/realtime에 WebSocket 연결을 사용합니다.실시간 음성
실시간 음성
번들
openai Plugin은 Voice Call Plugin에 대해 실시간 음성을 등록합니다.| Setting | Config path | Default |
|---|---|---|
| 모델 | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime |
| 음성 | ...openai.voice | alloy |
| Temperature | ...openai.temperature | 0.8 |
| VAD 임계값 | ...openai.vadThreshold | 0.5 |
| 무음 지속 시간 | ...openai.silenceDurationMs | 500 |
| API 키 | ...openai.apiKey | OPENAI_API_KEY로 fallback |
azureEndpoint 및 azureDeployment 구성 키를 통해 Azure OpenAI를 지원합니다. 양방향 도구 호출을 지원합니다. G.711 u-law 오디오 형식을 사용합니다.고급 구성
전송(WebSocket 대 SSE)
전송(WebSocket 대 SSE)
OpenClaw는
관련 OpenAI 문서:
openai/*와 openai-codex/* 모두에 대해 WebSocket 우선, SSE fallback("auto")을 사용합니다."auto" 모드에서 OpenClaw는 다음과 같이 동작합니다.- 초기 WebSocket 실패를 한 번 재시도한 뒤 SSE로 fallback합니다
- 실패 후 약 60초 동안 WebSocket을 성능 저하 상태로 표시하고, 쿨다운 동안 SSE를 사용합니다
- 재시도 및 재연결을 위해 안정적인 세션 및 턴 식별 헤더를 연결합니다
- 전송 방식 차이 전반에 걸쳐 사용량 카운터(
input_tokens/prompt_tokens)를 정규화합니다
| Value | 동작 |
|---|---|
"auto" (기본값) | WebSocket 우선, SSE fallback |
"sse" | SSE만 강제 |
"websocket" | WebSocket만 강제 |
WebSocket 워밍업
WebSocket 워밍업
OpenClaw는 첫 턴 지연 시간을 줄이기 위해
openai/*에 대해 기본적으로 WebSocket 워밍업을 활성화합니다.빠른 모드
빠른 모드
OpenClaw는
openai/*와 openai-codex/* 모두에 대해 공통 빠른 모드 토글을 제공합니다.- 채팅/UI:
/fast status|on|off - 구성:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority")에 매핑합니다. 기존 service_tier 값은 유지되며, 빠른 모드는 reasoning 또는 text.verbosity를 재작성하지 않습니다.세션 재정의가 구성보다 우선합니다. Sessions UI에서 세션 재정의를 지우면 세션은 구성된 기본값으로 돌아갑니다.
우선 처리(service_tier)
우선 처리(service_tier)
OpenAI API는 지원되는 값:
service_tier를 통해 우선 처리를 제공합니다. OpenClaw에서는 이를 모델별로 설정할 수 있습니다.auto, default, flex, priority.서버 측 Compaction(Responses API)
서버 측 Compaction(Responses API)
직접 OpenAI Responses 모델(
api.openai.com의 openai/*)에 대해 OpenClaw는 서버 측 Compaction을 자동 활성화합니다.store: true를 강제합니다(모델 호환성이supportsStore: false로 설정한 경우 제외)context_management: [{ type: "compaction", compact_threshold: ... }]를 주입합니다- 기본
compact_threshold:contextWindow의 70%(없으면80000)
- 명시적으로 활성화
- 사용자 지정 임계값
- 비활성화
Azure OpenAI Responses 같은 호환 엔드포인트에 유용합니다.
responsesServerCompaction은 context_management 주입만 제어합니다. 직접 OpenAI Responses 모델은 호환성이 supportsStore: false로 설정하지 않는 한 여전히 store: true를 강제합니다.엄격한 에이전트형 GPT 모드
엄격한 에이전트형 GPT 모드
openai/* 및 openai-codex/*의 GPT-5 계열 실행에 대해, OpenClaw는 더 엄격한 내장 실행 계약을 사용할 수 있습니다.strict-agentic를 사용하면 OpenClaw는 다음과 같이 동작합니다.- 도구 작업을 사용할 수 있는 경우 계획만 있는 턴을 더 이상 성공적인 진행으로 간주하지 않습니다
- 즉시 행동하도록 유도하는 조정과 함께 턴을 재시도합니다
- 상당한 작업에 대해
update_plan을 자동 활성화합니다 - 모델이 행동 없이 계속 계획만 세우면 명시적인 차단 상태를 표시합니다
범위는 OpenAI 및 Codex의 GPT-5 계열 실행에만 한정됩니다. 다른 provider와 이전 모델 계열은 기본 동작을 유지합니다.
native 경로와 OpenAI 호환 경로
native 경로와 OpenAI 호환 경로
OpenClaw는 직접 OpenAI, Codex, Azure OpenAI 엔드포인트를 일반적인 OpenAI 호환
/v1 프록시와 다르게 취급합니다.native 경로(openai/*, openai-codex/*, Azure OpenAI):- reasoning이 명시적으로 비활성화된 경우
reasoning: { effort: "none" }를 그대로 유지합니다 - 도구 스키마를 기본적으로 strict 모드로 설정합니다
- 검증된 native 호스트에만 숨겨진 attribution 헤더를 첨부합니다
- OpenAI 전용 요청 형식 지정(
service_tier,store, reasoning-compat, 프롬프트 캐시 힌트)을 유지합니다
- 더 느슨한 compat 동작을 사용합니다
- strict 도구 스키마 또는 native 전용 헤더를 강제하지 않습니다
관련 항목
모델 선택
provider, 모델 ref, failover 동작을 선택합니다.
이미지 생성
공통 이미지 도구 매개변수와 provider 선택입니다.
비디오 생성
공통 비디오 도구 매개변수와 provider 선택입니다.
OAuth 및 인증
인증 세부 정보와 자격 증명 재사용 규칙입니다.