모델 제공자
이 페이지는 LLM/모델 제공자를 다룹니다(WhatsApp/Telegram 같은 채팅 채널이 아닙니다). 모델 선택 규칙은 /concepts/models를 참조하세요.빠른 규칙
- 모델 참조는
provider/model형식을 사용합니다(예:opencode/claude-opus-4-6). agents.defaults.models를 설정하면 허용 목록이 됩니다.- CLI 도우미:
openclaw onboard,openclaw models list,openclaw models set <provider/model>. - 대체 런타임 규칙, 쿨다운 프로브, 세션 재정의 지속성은 /concepts/model-failover에 문서화되어 있습니다.
models.providers.*.models[].contextWindow는 네이티브 모델 메타데이터이고,models.providers.*.models[].contextTokens는 실제 런타임 상한입니다.- 제공자 플러그인은
registerProvider({ catalog })를 통해 모델 카탈로그를 주입할 수 있습니다. OpenClaw는models.json을 작성하기 전에 그 출력을models.providers에 병합합니다. - 제공자 매니페스트는
providerAuthEnvVars와providerAuthAliases를 선언할 수 있으므로, 일반적인 환경 변수 기반 인증 프로브와 제공자 변형은 플러그인 런타임을 로드할 필요가 없습니다. 이제 남아 있는 코어 환경 변수 맵은 비플러그인/코어 제공자와 Anthropic API 키 우선 온보딩 같은 일부 일반 우선순위 사례에만 사용됩니다. - 제공자 플러그인은
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot,onModelSelected를 통해 제공자 런타임 동작도 소유할 수 있습니다. - 참고: 제공자 런타임
capabilities는 공유 러너 메타데이터(제공자 계열, 전사/도구 관련 특성, 전송/캐시 힌트)입니다. 이는 플러그인이 등록하는 항목(텍스트 추론, 음성 등)을 설명하는 공개 capability 모델과는 다릅니다. - 번들된
codex제공자는 번들된 Codex 에이전트 하니스와 함께 연결됩니다. Codex 소유 로그인, 모델 검색, 네이티브 스레드 재개, 앱 서버 실행이 필요하면codex/gpt-*를 사용하세요. 일반openai/gpt-*참조는 계속해서 OpenAI 제공자와 일반 OpenClaw 제공자 전송을 사용합니다. Codex 전용 배포에서는agents.defaults.embeddedHarness.fallback: "none"으로 자동 PI 대체를 비활성화할 수 있습니다. 자세한 내용은 Codex Harness를 참조하세요.
플러그인 소유 제공자 동작
이제 제공자 플러그인은 대부분의 제공자별 로직을 소유할 수 있으며, OpenClaw는 일반 추론 루프를 유지합니다. 일반적인 분리는 다음과 같습니다.auth[].run/auth[].runNonInteractive: 제공자가openclaw onboard,openclaw models auth, 헤드리스 설정을 위한 온보딩/로그인 흐름을 소유wizard.setup/wizard.modelPicker: 제공자가 인증 선택 라벨, 레거시 별칭, 온보딩 허용 목록 힌트, 온보딩/모델 선택기에 표시되는 설정 항목을 소유catalog: 제공자가models.providers에 표시됨normalizeModelId: 제공자가 조회 또는 정규화 전에 레거시/프리뷰 모델 ID를 정규화normalizeTransport: 제공자가 일반 모델 조립 전에 전송 계열api/baseUrl을 정규화합니다. OpenClaw는 먼저 일치하는 제공자를 확인한 다음, 실제로 전송을 변경하는 플러그인을 찾을 때까지 다른 훅 지원 제공자 플러그인을 확인합니다.normalizeConfig: 제공자가 런타임이 사용하기 전에models.providers.<id>구성을 정규화합니다. OpenClaw는 먼저 일치하는 제공자를 확인한 다음, 실제로 구성을 변경하는 플러그인을 찾을 때까지 다른 훅 지원 제공자 플러그인을 확인합니다. 어떤 제공자 훅도 구성을 다시 쓰지 않으면, 번들된 Google 계열 도우미가 계속해서 지원되는 Google 제공자 항목을 정규화합니다.applyNativeStreamingUsageCompat: 제공자가 구성 제공자에 대해 엔드포인트 기반 네이티브 스트리밍 사용량 호환성 재작성을 적용resolveConfigApiKey: 제공자가 전체 런타임 인증 로딩을 강제하지 않고도 구성 제공자에 대한 환경 변수 마커 인증을 해석합니다.amazon-bedrock도 여기에 내장된 AWS 환경 변수 마커 해석기를 갖고 있지만, Bedrock 런타임 인증은 AWS SDK 기본 체인을 사용합니다.resolveSyntheticAuth: 제공자가 평문 비밀을 저장하지 않고도 로컬/셀프 호스팅 또는 기타 구성 기반 인증 사용 가능 여부를 노출할 수 있음shouldDeferSyntheticProfileAuth: 제공자가 저장된 합성 프로필 플레이스홀더를 환경 변수/구성 기반 인증보다 낮은 우선순위로 표시할 수 있음resolveDynamicModel: 제공자가 아직 로컬 정적 카탈로그에 없는 모델 ID를 허용prepareDynamicModel: 제공자가 동적 해석 재시도 전에 메타데이터 새로 고침이 필요함normalizeResolvedModel: 제공자가 전송 또는 기본 URL 재작성이 필요함contributeResolvedModelCompat: 제공자가 다른 호환 전송을 통해 도착하더라도 자사 벤더 모델에 대한 호환성 플래그를 제공capabilities: 제공자가 전사/도구/제공자 계열 특성을 게시normalizeToolSchemas: 제공자가 내장 러너가 보기 전에 도구 스키마를 정리inspectToolSchemas: 제공자가 정규화 후 전송별 스키마 경고를 표시resolveReasoningOutputMode: 제공자가 네이티브 또는 태그 지정된 추론 출력 계약을 선택prepareExtraParams: 제공자가 모델별 요청 매개변수의 기본값을 설정하거나 정규화createStreamFn: 제공자가 일반 스트림 경로를 완전히 사용자 정의된 전송으로 대체wrapStreamFn: 제공자가 요청 헤더/본문/모델 호환성 래퍼를 적용resolveTransportTurnState: 제공자가 턴별 네이티브 전송 헤더 또는 메타데이터를 제공resolveWebSocketSessionPolicy: 제공자가 네이티브 WebSocket 세션 헤더 또는 세션 쿨다운 정책을 제공createEmbeddingProvider: 메모리 임베딩 동작이 코어 임베딩 스위치보드가 아니라 제공자 플러그인에 속하는 경우, 제공자가 이를 소유formatApiKey: 제공자가 저장된 인증 프로필을 전송이 기대하는 런타임apiKey문자열 형식으로 변환refreshOAuth: 공유pi-ai새로 고침 로직만으로 충분하지 않을 때 제공자가 OAuth 새로 고침을 소유buildAuthDoctorHint: OAuth 새로 고침이 실패할 때 제공자가 복구 안내를 추가matchesContextOverflowError: 일반 휴리스틱이 놓치는 제공자별 컨텍스트 창 초과 오류를 제공자가 인식classifyFailoverReason: 제공자가 제공자별 원시 전송/API 오류를 속도 제한 또는 과부하 같은 대체 사유로 매핑isCacheTtlEligible: 제공자가 어떤 업스트림 모델 ID가 프롬프트 캐시 TTL을 지원하는지 결정buildMissingAuthMessage: 제공자가 일반 인증 저장소 오류를 제공자별 복구 힌트로 대체suppressBuiltInModel: 제공자가 오래된 업스트림 행을 숨기고 직접 해석 실패에 대해 벤더 소유 오류를 반환할 수 있음augmentModelCatalog: 제공자가 검색 및 구성 병합 후 합성/최종 카탈로그 행을 추가isBinaryThinking: 제공자가 이진 켜기/끄기 사고 UX를 소유supportsXHighThinking: 제공자가 선택된 모델에서xhigh를 활성화resolveDefaultThinkingLevel: 제공자가 모델 계열에 대한 기본/think정책을 소유applyConfigDefaults: 제공자가 인증 모드, 환경 변수, 모델 계열에 따라 구성 구체화 중 제공자별 전역 기본값을 적용isModernModelRef: 제공자가 라이브/스모크 선호 모델 매칭을 소유prepareRuntimeAuth: 제공자가 구성된 자격 증명을 짧은 수명의 런타임 토큰으로 변환resolveUsageAuth: 제공자가/usage및 관련 상태/보고 표면을 위한 사용량/쿼터 자격 증명을 해석fetchUsageSnapshot: 제공자가 사용량 엔드포인트 가져오기/파싱을 소유하고, 코어는 계속해서 요약 셸과 형식을 소유onModelSelected: 제공자가 텔레메트리 또는 제공자 소유 세션 기록 관리 같은 모델 선택 후 부수 효과를 실행
anthropic: Claude 4.6 순방향 호환 대체, 인증 복구 힌트, 사용량 엔드포인트 가져오기, cache-TTL/제공자 계열 메타데이터, 인증 인식 전역 구성 기본값amazon-bedrock: Bedrock 전용 스로틀/준비 안 됨 오류에 대한 제공자 소유 컨텍스트 초과 일치 및 대체 사유 분류, 그리고 Anthropic 트래픽의 Claude 전용 재생 정책 가드를 위한 공유anthropic-by-model재생 계열anthropic-vertex: Anthropic 메시지 트래픽에 대한 Claude 전용 재생 정책 가드openrouter: 패스스루 모델 ID, 요청 래퍼, 제공자 capability 힌트, 프록시 Gemini 트래픽에서의 Gemini thought-signature 정리,openrouter-thinking스트림 계열을 통한 프록시 추론 주입, 라우팅 메타데이터 전달, cache-TTL 정책github-copilot: 온보딩/디바이스 로그인, 순방향 호환 모델 대체, Claude-thinking 전사 힌트, 런타임 토큰 교환, 사용량 엔드포인트 가져오기openai: GPT-5.4 순방향 호환 대체, 직접 OpenAI 전송 정규화, Codex 인식 누락 인증 힌트, Spark 억제, 합성 OpenAI/Codex 카탈로그 행, thinking/라이브 모델 정책, 사용량 토큰 별칭 정규화(input/output및prompt/completion계열), 네이티브 OpenAI/Codex 래퍼를 위한 공유openai-responses-defaults스트림 계열, 제공자 계열 메타데이터,gpt-image-1용 번들 이미지 생성 제공자 등록,sora-2용 번들 비디오 생성 제공자 등록google및google-gemini-cli: Gemini 3.1 순방향 호환 대체, 네이티브 Gemini 재생 검증, 부트스트랩 재생 정리, 태그 지정된 추론 출력 모드, 최신 모델 매칭, Gemini image-preview 모델용 번들 이미지 생성 제공자 등록, Veo 모델용 번들 비디오 생성 제공자 등록; Gemini CLI OAuth는 사용량 표면을 위한 인증 프로필 토큰 형식화, 사용량 토큰 파싱, 할당량 엔드포인트 가져오기도 소유moonshot: 공유 전송, 플러그인 소유 thinking 페이로드 정규화kilocode: 공유 전송, 플러그인 소유 요청 헤더, 추론 페이로드 정규화, 프록시 Gemini thought-signature 정리, cache-TTL 정책zai: GLM-5 순방향 호환 대체,tool_stream기본값, cache-TTL 정책, 이진 thinking/라이브 모델 정책, 사용량 인증 + 할당량 가져오기; 알 수 없는glm-5*ID는 번들된glm-4.7템플릿에서 합성됨xai: 네이티브 Responses 전송 정규화, Grok fast 변형용/fast별칭 재작성, 기본tool_stream, xAI 전용 도구 스키마 / 추론 페이로드 정리,grok-imagine-video용 번들 비디오 생성 제공자 등록mistral: 플러그인 소유 capability 메타데이터opencode및opencode-go: 플러그인 소유 capability 메타데이터와 프록시 Gemini thought-signature 정리alibaba:alibaba/wan2.6-t2v같은 직접 Wan 모델 참조를 위한 플러그인 소유 비디오 생성 카탈로그byteplus: 플러그인 소유 카탈로그와 Seedance 텍스트-비디오/이미지-비디오 모델용 번들 비디오 생성 제공자 등록fal: 호스팅된 서드파티 이미지 생성 모델을 위한 번들 이미지 생성 제공자 등록과 호스팅된 서드파티 비디오 모델을 위한 번들 비디오 생성 제공자 등록cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,venice,vercel-ai-gateway,volcengine: 플러그인 소유 카탈로그만 제공qwen: 텍스트 모델용 플러그인 소유 카탈로그와 멀티모달 표면용 공유 media-understanding 및 비디오 생성 제공자 등록; Qwen 비디오 생성은wan2.6-t2v,wan2.7-r2v같은 번들 Wan 모델과 함께 Standard DashScope 비디오 엔드포인트를 사용runway:gen4.5같은 네이티브 Runway 작업 기반 모델용 플러그인 소유 비디오 생성 제공자 등록minimax: 플러그인 소유 카탈로그, Hailuo 비디오 모델용 번들 비디오 생성 제공자 등록,image-01용 번들 이미지 생성 제공자 등록, 하이브리드 Anthropic/OpenAI 재생 정책 선택, 사용량 인증/스냅샷 로직together: 플러그인 소유 카탈로그와 Wan 비디오 모델용 번들 비디오 생성 제공자 등록xiaomi: 플러그인 소유 카탈로그와 사용량 인증/스냅샷 로직
openai 플러그인은 이제 openai와 openai-codex 두 제공자 ID를 모두 소유합니다.
여기까지는 여전히 OpenClaw의 일반 전송에 맞는 제공자들입니다. 완전히 사용자 정의된 요청 실행기가 필요한 제공자는 별도의 더 깊은 확장 표면입니다.
API 키 순환
- 선택된 제공자에 대해 일반 제공자 순환을 지원합니다.
- 여러 키는 다음을 통해 구성합니다:
OPENCLAW_LIVE_<PROVIDER>_KEY(단일 라이브 재정의, 최우선)<PROVIDER>_API_KEYS(쉼표 또는 세미콜론 목록)<PROVIDER>_API_KEY(기본 키)<PROVIDER>_API_KEY_*(번호가 붙은 목록, 예:<PROVIDER>_API_KEY_1)
- Google 제공자의 경우
GOOGLE_API_KEY도 대체값으로 포함됩니다. - 키 선택 순서는 우선순위를 유지하면서 값을 중복 제거합니다.
- 요청은 속도 제한 응답에서만 다음 키로 재시도됩니다(예:
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded, 또는 주기적인 사용량 제한 메시지). - 속도 제한이 아닌 실패는 즉시 실패하며, 키 순환은 시도되지 않습니다.
- 모든 후보 키가 실패하면 마지막 시도의 최종 오류가 반환됩니다.
내장 제공자(pi-ai 카탈로그)
OpenClaw는 pi‑ai 카탈로그를 함께 제공합니다. 이러한 제공자는models.providers 구성 없이도 사용할 수 있으며, 인증을 설정하고 모델만 선택하면 됩니다.
OpenAI
- 제공자:
openai - 인증:
OPENAI_API_KEY - 선택적 순환:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, 그리고OPENCLAW_LIVE_OPENAI_KEY(단일 재정의) - 예제 모델:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - 기본 전송은
auto입니다(WebSocket 우선, SSE 대체) - 모델별 재정의:
agents.defaults.models["openai/<model>"].params.transport("sse","websocket", 또는"auto") - OpenAI Responses WebSocket 워밍업은 기본적으로
params.openaiWsWarmup(true/false)을 통해 활성화됩니다 - OpenAI 우선 처리(priority processing)는
agents.defaults.models["openai/<model>"].params.serviceTier를 통해 활성화할 수 있습니다 /fast및params.fastMode는 직접openai/*Responses 요청을api.openai.com의service_tier=priority로 매핑합니다- 공유
/fast토글 대신 명시적인 티어를 원하면params.serviceTier를 사용하세요 - 숨겨진 OpenClaw attribution 헤더(
originator,version,User-Agent)는 일반 OpenAI 호환 프록시가 아니라api.openai.com에 대한 네이티브 OpenAI 트래픽에만 적용됩니다 - 네이티브 OpenAI 경로는 Responses
store, 프롬프트 캐시 힌트, OpenAI 추론 호환 페이로드 형상도 유지하며, 프록시 경로는 그렇지 않습니다 openai/gpt-5.3-codex-spark는 실제 OpenAI API에서 거부되므로 OpenClaw에서 의도적으로 숨겨집니다. Spark는 Codex 전용으로 취급됩니다
Anthropic
- 제공자:
anthropic - 인증:
ANTHROPIC_API_KEY - 선택적 순환:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, 그리고OPENCLAW_LIVE_ANTHROPIC_KEY(단일 재정의) - 예제 모델:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 직접 공개 Anthropic 요청은
api.anthropic.com으로 전송되는 API 키 및 OAuth 인증 트래픽을 포함해 공유/fast토글과params.fastMode도 지원합니다. OpenClaw는 이를 Anthropicservice_tier(auto대standard_only)로 매핑합니다 - Anthropic 참고: Anthropic 직원이 OpenClaw 스타일 Claude CLI 사용이 다시 허용된다고 알려주었으므로, Anthropic이 새로운 정책을 발표하지 않는 한 OpenClaw는 Claude CLI 재사용과
claude -p사용을 이 통합에서 허용된 것으로 취급합니다. - Anthropic setup-token은 계속 지원되는 OpenClaw 토큰 경로로 남아 있지만, OpenClaw는 이제 가능하면 Claude CLI 재사용과
claude -p를 우선합니다.
OpenAI Code (Codex)
- 제공자:
openai-codex - 인증: OAuth (ChatGPT)
- 예제 모델:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codex또는openclaw models auth login --provider openai-codex - 기본 전송은
auto입니다(WebSocket 우선, SSE 대체) - 모델별 재정의:
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", 또는"auto") params.serviceTier도 네이티브 Codex Responses 요청(chatgpt.com/backend-api)에서 전달됩니다- 숨겨진 OpenClaw attribution 헤더(
originator,version,User-Agent)는 일반 OpenAI 호환 프록시가 아니라chatgpt.com/backend-api로 향하는 네이티브 Codex 트래픽에만 첨부됩니다 - 직접
openai/*와 동일한/fast토글 및params.fastMode구성을 공유하며, OpenClaw는 이를service_tier=priority로 매핑합니다 openai-codex/gpt-5.3-codex-spark는 Codex OAuth 카탈로그가 이를 노출할 때 계속 사용할 수 있습니다. 권한 부여 여부에 따라 달라집니다openai-codex/gpt-5.4는 네이티브contextWindow = 1050000과 기본 런타임contextTokens = 272000을 유지합니다. 런타임 상한은models.providers.openai-codex.models[].contextTokens로 재정의할 수 있습니다- 정책 참고: OpenAI Codex OAuth는 OpenClaw 같은 외부 도구/워크플로에 대해 명시적으로 지원됩니다.
기타 구독형 호스팅 옵션
- Qwen Cloud: Qwen Cloud 제공자 표면과 Alibaba DashScope 및 Coding Plan 엔드포인트 매핑
- MiniMax: MiniMax Coding Plan OAuth 또는 API 키 액세스
- GLM Models: Z.AI Coding Plan 또는 일반 API 엔드포인트
OpenCode
- 인증:
OPENCODE_API_KEY(또는OPENCODE_ZEN_API_KEY) - Zen 런타임 제공자:
opencode - Go 런타임 제공자:
opencode-go - 예제 모델:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zen또는openclaw onboard --auth-choice opencode-go
Google Gemini (API 키)
- 제공자:
google - 인증:
GEMINI_API_KEY - 선택적 순환:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEY대체값, 그리고OPENCLAW_LIVE_GEMINI_KEY(단일 재정의) - 예제 모델:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - 호환성:
google/gemini-3.1-flash-preview를 사용하는 레거시 OpenClaw 구성은google/gemini-3-flash-preview로 정규화됩니다 - CLI:
openclaw onboard --auth-choice gemini-api-key - 직접 Gemini 실행도
agents.defaults.models["google/<model>"].params.cachedContent(또는 레거시cached_content)를 받아 제공자 네이티브cachedContents/...핸들을 전달합니다. Gemini 캐시 적중은 OpenClawcacheRead로 표시됩니다
Google Vertex 및 Gemini CLI
- 제공자:
google-vertex,google-gemini-cli - 인증: Vertex는 gcloud ADC를 사용하고, Gemini CLI는 자체 OAuth 흐름을 사용합니다
- 주의: OpenClaw의 Gemini CLI OAuth는 비공식 통합입니다. 일부 사용자는 서드파티 클라이언트 사용 후 Google 계정 제한을 경험했다고 보고했습니다. 진행하기로 했다면 Google 약관을 검토하고 중요하지 않은 계정을 사용하세요.
- Gemini CLI OAuth는 번들된
google플러그인의 일부로 제공됩니다.- 먼저 Gemini CLI를 설치하세요:
brew install gemini-cli- 또는
npm install -g @google/gemini-cli
- 활성화:
openclaw plugins enable google - 로그인:
openclaw models auth login --provider google-gemini-cli --set-default - 기본 모델:
google-gemini-cli/gemini-3-flash-preview - 참고:
openclaw.json에 client id 또는 secret을 붙여넣지 않습니다. CLI 로그인 흐름은 게이트웨이 호스트의 인증 프로필에 토큰을 저장합니다. - 로그인 후 요청이 실패하면 게이트웨이 호스트에
GOOGLE_CLOUD_PROJECT또는GOOGLE_CLOUD_PROJECT_ID를 설정하세요. - Gemini CLI JSON 응답은
response에서 파싱되며, 사용량은stats로 대체되고stats.cached는 OpenClawcacheRead로 정규화됩니다.
- 먼저 Gemini CLI를 설치하세요:
Z.AI (GLM)
- 제공자:
zai - 인증:
ZAI_API_KEY - 예제 모델:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- 별칭:
z.ai/*및z-ai/*는zai/*로 정규화됩니다 zai-api-key는 일치하는 Z.AI 엔드포인트를 자동 감지합니다.zai-coding-global,zai-coding-cn,zai-global,zai-cn은 특정 표면을 강제합니다
- 별칭:
Vercel AI Gateway
- 제공자:
vercel-ai-gateway - 인증:
AI_GATEWAY_API_KEY - 예제 모델:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- 제공자:
kilocode - 인증:
KILOCODE_API_KEY - 예제 모델:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - 기본 URL:
https://api.kilo.ai/api/gateway/ - 정적 대체 카탈로그에는
kilocode/kilo/auto가 포함되며, 라이브https://api.kilo.ai/api/gateway/models검색은 런타임 카탈로그를 더 확장할 수 있습니다. kilocode/kilo/auto뒤의 정확한 업스트림 라우팅은 OpenClaw에 하드코딩되어 있지 않고 Kilo Gateway가 소유합니다.
기타 번들 제공자 플러그인
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - 예제 모델:
openrouter/auto - OpenClaw는 요청이 실제로
openrouter.ai를 대상으로 할 때만 OpenRouter의 문서화된 앱 attribution 헤더를 적용합니다 - OpenRouter 전용 Anthropic
cache_control마커도 임의 프록시 URL이 아니라 검증된 OpenRouter 경로에서만 적용됩니다 - OpenRouter는 프록시 스타일 OpenAI 호환 경로에 남아 있으므로 네이티브 OpenAI 전용 요청 형상화(
serviceTier, Responsesstore, 프롬프트 캐시 힌트, OpenAI 추론 호환 페이로드)는 전달되지 않습니다 - Gemini 기반 OpenRouter 참조는 프록시 Gemini thought-signature 정리만 유지하며, 네이티브 Gemini 재생 검증 및 부트스트랩 재작성은 비활성 상태로 유지됩니다
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - 예제 모델:
kilocode/kilo/auto - Gemini 기반 Kilo 참조는 동일한 프록시 Gemini thought-signature 정리 경로를 유지합니다.
kilocode/kilo/auto및 기타 프록시 추론 미지원 힌트는 프록시 추론 주입을 건너뜁니다 - MiniMax:
minimax(API 키) 및minimax-portal(OAuth) - 인증:
minimax에는MINIMAX_API_KEY,minimax-portal에는MINIMAX_OAUTH_TOKEN또는MINIMAX_API_KEY - 예제 모델:
minimax/MiniMax-M2.7또는minimax-portal/MiniMax-M2.7 - MiniMax 온보딩/API 키 설정은
input: ["text", "image"]가 포함된 명시적 M2.7 모델 정의를 작성합니다. 번들된 제공자 카탈로그는 해당 제공자 구성이 구체화되기 전까지 채팅 참조를 텍스트 전용으로 유지합니다 - Moonshot:
moonshot(MOONSHOT_API_KEY) - 예제 모델:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEY또는KIMICODE_API_KEY) - 예제 모델:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - 예제 모델:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEY, 또는DASHSCOPE_API_KEY) - 예제 모델:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - 예제 모델:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - 예제 모델:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - 예제 모델:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - 예제 모델:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKEN또는HF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - 예제 모델:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - 예제 모델:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- 네이티브 번들 xAI 요청은 xAI Responses 경로를 사용합니다
/fast또는params.fastMode: true는grok-3,grok-3-mini,grok-4,grok-4-0709를 해당*-fast변형으로 다시 씁니다tool_stream는 기본적으로 켜져 있습니다. 비활성화하려면agents.defaults.models["xai/<model>"].params.tool_stream를false로 설정하세요
- Mistral:
mistral(MISTRAL_API_KEY) - 예제 모델:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Cerebras의 GLM 모델은
zai-glm-4.7및zai-glm-4.6ID를 사용합니다. - OpenAI 호환 기본 URL:
https://api.cerebras.ai/v1.
- Cerebras의 GLM 모델은
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference 예제 모델:
huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Hugging Face (Inference)를 참조하세요.
models.providers를 통한 제공자(custom/base URL)
models.providers(또는 models.json)를 사용해 사용자 정의 제공자 또는 OpenAI/Anthropic 호환 프록시를 추가하세요.
아래의 많은 번들 제공자 플러그인은 이미 기본 카탈로그를 게시합니다.
기본 base URL, 헤더 또는 모델 목록을 재정의하려는 경우에만 명시적인 models.providers.<id> 항목을 사용하세요.
Moonshot AI (Kimi)
Moonshot은 번들 제공자 플러그인으로 제공됩니다. 기본적으로 내장 제공자를 사용하고, base URL 또는 모델 메타데이터를 재정의해야 할 때만 명시적인models.providers.moonshot 항목을 추가하세요:
- 제공자:
moonshot - 인증:
MOONSHOT_API_KEY - 예제 모델:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-key또는openclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi Coding은 Moonshot AI의 Anthropic 호환 엔드포인트를 사용합니다:- 제공자:
kimi - 인증:
KIMI_API_KEY - 예제 모델:
kimi/kimi-code
kimi/k2p5는 호환성 모델 ID로 계속 허용됩니다.
Volcano Engine (Doubao)
Volcano Engine (火山引擎)은 중국에서 Doubao 및 기타 모델에 대한 액세스를 제공합니다.- 제공자:
volcengine(코딩:volcengine-plan) - 인증:
VOLCANO_ENGINE_API_KEY - 예제 모델:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/* 카탈로그도 동시에 등록됩니다.
온보딩/모델 구성 선택기에서 Volcengine 인증 선택은 volcengine/*와 volcengine-plan/* 행을 모두 우선합니다. 해당 모델이 아직 로드되지 않은 경우, OpenClaw는 빈 제공자 범위 선택기를 표시하는 대신 필터링되지 않은 카탈로그로 대체합니다.
사용 가능한 모델:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (국제)
BytePlus ARK는 국제 사용자를 위해 Volcano Engine과 동일한 모델에 대한 액세스를 제공합니다.- 제공자:
byteplus(코딩:byteplus-plan) - 인증:
BYTEPLUS_API_KEY - 예제 모델:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/* 카탈로그도 동시에 등록됩니다.
온보딩/모델 구성 선택기에서 BytePlus 인증 선택은 byteplus/*와 byteplus-plan/* 행을 모두 우선합니다. 해당 모델이 아직 로드되지 않은 경우, OpenClaw는 빈 제공자 범위 선택기를 표시하는 대신 필터링되지 않은 카탈로그로 대체합니다.
사용 가능한 모델:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic는synthetic 제공자 뒤에서 Anthropic 호환 모델을 제공합니다:
- 제공자:
synthetic - 인증:
SYNTHETIC_API_KEY - 예제 모델:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax는 사용자 정의 엔드포인트를 사용하므로models.providers를 통해 구성됩니다:
- MiniMax OAuth (Global):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API 키 (Global):
--auth-choice minimax-global-api - MiniMax API 키 (CN):
--auth-choice minimax-cn-api - 인증:
minimax에는MINIMAX_API_KEY,minimax-portal에는MINIMAX_OAUTH_TOKEN또는MINIMAX_API_KEY
/fast on은 MiniMax-M2.7을 MiniMax-M2.7-highspeed로 다시 씁니다.
플러그인 소유 capability 분리:
- 텍스트/채팅 기본값은
minimax/MiniMax-M2.7에 유지됩니다 - 이미지 생성은
minimax/image-01또는minimax-portal/image-01입니다 - 이미지 이해는 두 MiniMax 인증 경로 모두에서 플러그인 소유
MiniMax-VL-01입니다 - 웹 검색은 제공자 ID
minimax에 유지됩니다
Ollama
Ollama는 번들 제공자 플러그인으로 제공되며 Ollama의 네이티브 API를 사용합니다:- 제공자:
ollama - 인증: 필요 없음(로컬 서버)
- 예제 모델:
ollama/llama3.3 - 설치: https://ollama.com/download
OLLAMA_API_KEY로 선택적으로 활성화하면 Ollama는 로컬의 http://127.0.0.1:11434에서 감지되며, 번들 제공자 플러그인이 Ollama를 openclaw onboard와 모델 선택기에 직접 추가합니다. 온보딩, 클라우드/로컬 모드, 사용자 정의 구성은 /providers/ollama를 참조하세요.
vLLM
vLLM은 로컬/셀프 호스팅 OpenAI 호환 서버를 위한 번들 제공자 플러그인으로 제공됩니다:- 제공자:
vllm - 인증: 선택 사항(서버에 따라 다름)
- 기본 base URL:
http://127.0.0.1:8000/v1
/v1/models가 반환하는 ID 중 하나로 교체):
SGLang
SGLang은 빠른 셀프 호스팅 OpenAI 호환 서버를 위한 번들 제공자 플러그인으로 제공됩니다:- 제공자:
sglang - 인증: 선택 사항(서버에 따라 다름)
- 기본 base URL:
http://127.0.0.1:30000/v1
/v1/models가 반환하는 ID 중 하나로 교체):
로컬 프록시(LM Studio, vLLM, LiteLLM 등)
예시(OpenAI 호환):- 사용자 정의 제공자의 경우
reasoning,input,cost,contextWindow,maxTokens는 선택 사항입니다. 생략하면 OpenClaw는 다음 기본값을 사용합니다:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- 권장 사항: 프록시/모델 제한에 맞는 명시적 값을 설정하세요.
- 네이티브가 아닌 엔드포인트에서
api: "openai-completions"를 사용할 경우(api.openai.com이 아닌 호스트를 가진 비어 있지 않은baseUrl), OpenClaw는 지원되지 않는developer역할로 인한 제공자 400 오류를 방지하기 위해compat.supportsDeveloperRole: false를 강제합니다. - 프록시 스타일 OpenAI 호환 경로는 네이티브 OpenAI 전용 요청 형상화도 건너뜁니다. 즉,
service_tier, Responsesstore, 프롬프트 캐시 힌트, OpenAI 추론 호환 페이로드 형상, 숨겨진 OpenClaw attribution 헤더가 없습니다. baseUrl이 비어 있거나 생략되면 OpenClaw는 기본 OpenAI 동작(api.openai.com으로 해석됨)을 유지합니다.- 안전을 위해 네이티브가 아닌
openai-completions엔드포인트에서는 명시적인compat.supportsDeveloperRole: true도 계속 재정의됩니다.