메인 콘텐츠로 건너뛰기

OpenAI

OpenAI는 GPT 모델용 개발자 API를 제공합니다. OpenClaw는 두 가지 인증 경로를 지원합니다.
  • API 키 — 사용량 기반 과금이 적용되는 직접 OpenAI Platform 액세스(openai/* 모델)
  • Codex 구독 — 구독 액세스를 사용하는 ChatGPT/Codex 로그인(openai-codex/* 모델)
OpenAI는 OpenClaw 같은 외부 도구 및 워크플로에서의 구독 OAuth 사용을 명시적으로 지원합니다.

시작하기

선호하는 인증 방법을 선택하고 설정 단계를 따르세요.
적합한 대상: 직접 API 액세스 및 사용량 기반 과금.
1

API 키 가져오기

OpenAI Platform 대시보드에서 API 키를 생성하거나 복사합니다.
2

온보딩 실행

openclaw onboard --auth-choice openai-api-key
또는 키를 직접 전달합니다.
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

모델 사용 가능 여부 확인

openclaw models list --provider openai

경로 요약

Model ref경로Auth
openai/gpt-5.4직접 OpenAI Platform APIOPENAI_API_KEY
openai/gpt-5.4-pro직접 OpenAI Platform APIOPENAI_API_KEY
ChatGPT/Codex 로그인은 openai/*가 아니라 openai-codex/*를 통해 라우팅됩니다.

구성 예시

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
OpenClaw는 직접 API 경로에서 openai/gpt-5.3-codex-spark를 노출하지 않습니다. 실제 OpenAI API 요청은 해당 모델을 거부합니다. Spark는 Codex 전용입니다.

이미지 생성

번들 openai Plugin은 image_generate 도구를 통해 이미지 생성을 등록합니다.
CapabilityValue
기본 모델openai/gpt-image-1
요청당 최대 이미지 수4
편집 모드활성화됨(최대 참조 이미지 5개)
크기 재정의지원됨
종횡비 / 해상도OpenAI Images API로 전달되지 않음
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-1" },
    },
  },
}
공통 도구 매개변수, provider 선택, failover 동작은 이미지 생성을 참조하세요.

비디오 생성

번들 openai Plugin은 video_generate 도구를 통해 비디오 생성을 등록합니다.
CapabilityValue
기본 모델openai/sora-2
모드텍스트-비디오, 이미지-비디오, 단일 비디오 편집
참조 입력이미지 1개 또는 비디오 1개
크기 재정의지원됨
기타 재정의aspectRatio, resolution, audio, watermark는 도구 경고와 함께 무시됨
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
공통 도구 매개변수, provider 선택, failover 동작은 비디오 생성을 참조하세요.

personality 오버레이

OpenClaw는 openai/*openai-codex/* 실행에 대해 OpenAI 전용의 작은 프롬프트 오버레이를 추가합니다. 이 오버레이는 기본 시스템 프롬프트를 대체하지 않으면서 어시스턴트를 더 따뜻하고, 협력적이며, 간결하고, 약간 더 감정적으로 풍부하게 유지합니다.
Value효과
"friendly" (기본값)OpenAI 전용 오버레이 활성화
"on""friendly"의 별칭
"off"기본 OpenClaw 프롬프트만 사용
{
  plugins: {
    entries: {
      openai: { config: { personality: "friendly" } },
    },
  },
}
이 값들은 런타임에서 대소문자를 구분하지 않으므로 "Off""off"는 모두 오버레이를 비활성화합니다.

음성 및 speech

번들 openai Plugin은 messages.tts 표면에 대해 음성 합성을 등록합니다.
SettingConfig pathDefault
모델messages.tts.providers.openai.modelgpt-4o-mini-tts
음성messages.tts.providers.openai.voicecoral
속도messages.tts.providers.openai.speed(설정되지 않음)
지시messages.tts.providers.openai.instructions(설정되지 않음, gpt-4o-mini-tts 전용)
형식messages.tts.providers.openai.responseFormat음성 노트는 opus, 파일은 mp3
API 키messages.tts.providers.openai.apiKeyOPENAI_API_KEY로 fallback
Base URLmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
사용 가능한 모델: gpt-4o-mini-tts, tts-1, tts-1-hd. 사용 가능한 음성: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verse.
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
채팅 API 엔드포인트에 영향을 주지 않고 TTS base URL을 재정의하려면 OPENAI_TTS_BASE_URL을 설정하세요.
번들 openai Plugin은 Voice Call Plugin에 대해 실시간 전사를 등록합니다.
SettingConfig pathDefault
모델plugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
무음 지속 시간...openai.silenceDurationMs800
VAD 임계값...openai.vadThreshold0.5
API 키...openai.apiKeyOPENAI_API_KEY로 fallback
G.711 u-law 오디오를 사용해 wss://api.openai.com/v1/realtime에 WebSocket 연결을 사용합니다.
번들 openai Plugin은 Voice Call Plugin에 대해 실시간 음성을 등록합니다.
SettingConfig pathDefault
모델plugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime
음성...openai.voicealloy
Temperature...openai.temperature0.8
VAD 임계값...openai.vadThreshold0.5
무음 지속 시간...openai.silenceDurationMs500
API 키...openai.apiKeyOPENAI_API_KEY로 fallback
azureEndpointazureDeployment 구성 키를 통해 Azure OpenAI를 지원합니다. 양방향 도구 호출을 지원합니다. G.711 u-law 오디오 형식을 사용합니다.

고급 구성

OpenClaw는 openai/*openai-codex/* 모두에 대해 WebSocket 우선, SSE fallback("auto")을 사용합니다."auto" 모드에서 OpenClaw는 다음과 같이 동작합니다.
  • 초기 WebSocket 실패를 한 번 재시도한 뒤 SSE로 fallback합니다
  • 실패 후 약 60초 동안 WebSocket을 성능 저하 상태로 표시하고, 쿨다운 동안 SSE를 사용합니다
  • 재시도 및 재연결을 위해 안정적인 세션 및 턴 식별 헤더를 연결합니다
  • 전송 방식 차이 전반에 걸쳐 사용량 카운터(input_tokens / prompt_tokens)를 정규화합니다
Value동작
"auto" (기본값)WebSocket 우선, SSE fallback
"sse"SSE만 강제
"websocket"WebSocket만 강제
{
  agents: {
    defaults: {
      models: {
        "openai-codex/gpt-5.4": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
관련 OpenAI 문서:
OpenClaw는 첫 턴 지연 시간을 줄이기 위해 openai/*에 대해 기본적으로 WebSocket 워밍업을 활성화합니다.
// 워밍업 비활성화
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: { openaiWsWarmup: false },
        },
      },
    },
  },
}
OpenClaw는 openai/*openai-codex/* 모두에 대해 공통 빠른 모드 토글을 제공합니다.
  • 채팅/UI: /fast status|on|off
  • 구성: agents.defaults.models["<provider>/<model>"].params.fastMode
활성화되면 OpenClaw는 빠른 모드를 OpenAI 우선 처리(service_tier = "priority")에 매핑합니다. 기존 service_tier 값은 유지되며, 빠른 모드는 reasoning 또는 text.verbosity를 재작성하지 않습니다.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { fastMode: true } },
        "openai-codex/gpt-5.4": { params: { fastMode: true } },
      },
    },
  },
}
세션 재정의가 구성보다 우선합니다. Sessions UI에서 세션 재정의를 지우면 세션은 구성된 기본값으로 돌아갑니다.
OpenAI API는 service_tier를 통해 우선 처리를 제공합니다. OpenClaw에서는 이를 모델별로 설정할 수 있습니다.
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": { params: { serviceTier: "priority" } },
        "openai-codex/gpt-5.4": { params: { serviceTier: "priority" } },
      },
    },
  },
}
지원되는 값: auto, default, flex, priority.
serviceTier는 native OpenAI 엔드포인트(api.openai.com)와 native Codex 엔드포인트(chatgpt.com/backend-api)에만 전달됩니다. 두 provider 중 하나를 프록시를 통해 라우팅하는 경우, OpenClaw는 service_tier를 그대로 둡니다.
직접 OpenAI Responses 모델(api.openai.comopenai/*)에 대해 OpenClaw는 서버 측 Compaction을 자동 활성화합니다.
  • store: true를 강제합니다(모델 호환성이 supportsStore: false로 설정한 경우 제외)
  • context_management: [{ type: "compaction", compact_threshold: ... }]를 주입합니다
  • 기본 compact_threshold: contextWindow의 70%(없으면 80000)
Azure OpenAI Responses 같은 호환 엔드포인트에 유용합니다.
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompactioncontext_management 주입만 제어합니다. 직접 OpenAI Responses 모델은 호환성이 supportsStore: false로 설정하지 않는 한 여전히 store: true를 강제합니다.
openai/*openai-codex/*의 GPT-5 계열 실행에 대해, OpenClaw는 더 엄격한 내장 실행 계약을 사용할 수 있습니다.
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
strict-agentic를 사용하면 OpenClaw는 다음과 같이 동작합니다.
  • 도구 작업을 사용할 수 있는 경우 계획만 있는 턴을 더 이상 성공적인 진행으로 간주하지 않습니다
  • 즉시 행동하도록 유도하는 조정과 함께 턴을 재시도합니다
  • 상당한 작업에 대해 update_plan을 자동 활성화합니다
  • 모델이 행동 없이 계속 계획만 세우면 명시적인 차단 상태를 표시합니다
범위는 OpenAI 및 Codex의 GPT-5 계열 실행에만 한정됩니다. 다른 provider와 이전 모델 계열은 기본 동작을 유지합니다.
OpenClaw는 직접 OpenAI, Codex, Azure OpenAI 엔드포인트를 일반적인 OpenAI 호환 /v1 프록시와 다르게 취급합니다.native 경로(openai/*, openai-codex/*, Azure OpenAI):
  • reasoning이 명시적으로 비활성화된 경우 reasoning: { effort: "none" }를 그대로 유지합니다
  • 도구 스키마를 기본적으로 strict 모드로 설정합니다
  • 검증된 native 호스트에만 숨겨진 attribution 헤더를 첨부합니다
  • OpenAI 전용 요청 형식 지정(service_tier, store, reasoning-compat, 프롬프트 캐시 힌트)을 유지합니다
프록시/호환 경로:
  • 더 느슨한 compat 동작을 사용합니다
  • strict 도구 스키마 또는 native 전용 헤더를 강제하지 않습니다
Azure OpenAI는 native 전송 및 compat 동작을 사용하지만 숨겨진 attribution 헤더는 받지 않습니다.

관련 항목

모델 선택

provider, 모델 ref, failover 동작을 선택합니다.

이미지 생성

공통 이미지 도구 매개변수와 provider 선택입니다.

비디오 생성

공통 비디오 도구 매개변수와 provider 선택입니다.

OAuth 및 인증

인증 세부 정보와 자격 증명 재사용 규칙입니다.