모델: 기본값, 선택, 별칭, 전환
“기본 모델”이란 무엇인가요?
“기본 모델”이란 무엇인가요?
OpenClaw의 기본 모델은 다음에 설정한 값입니다.모델은
provider/model 형식으로 참조합니다(예: openai/gpt-5.4 또는 openai-codex/gpt-5.5). provider를 생략하면 OpenClaw는 먼저 별칭을 시도하고, 그다음 정확한 모델 ID에 대한 고유한 구성 provider 일치를 찾고, 마지막으로 deprecated 호환 경로로 구성된 기본 provider로 폴백합니다. 해당 provider가 더 이상 구성된 기본 모델을 노출하지 않으면 OpenClaw는 오래된 제거된 provider 기본값을 노출하는 대신 첫 번째 구성된 provider/model로 폴백합니다. 그래도 반드시 명시적으로 provider/model을 설정하는 것이 좋습니다.어떤 모델을 권장하나요?
어떤 모델을 권장하나요?
권장 기본값: provider 스택에서 사용할 수 있는 가장 강력한 최신 세대 모델을 사용하세요.
도구 사용 가능 또는 신뢰할 수 없는 입력을 받는 에이전트: 비용보다 모델 성능을 우선하세요.
일상적/위험도가 낮은 채팅: 더 저렴한 폴백 모델을 사용하고 에이전트 역할별로 라우팅하세요.MiniMax는 자체 문서가 있습니다: MiniMax 및
로컬 모델.경험칙: 위험도가 높은 작업에는 감당 가능한 최고 모델을 사용하고, 일상적인 채팅이나 요약에는 더 저렴한 모델을 사용하세요. 에이전트별로 모델을 라우팅하고 하위 에이전트를 사용해 긴 작업을 병렬화할 수 있습니다(각 하위 에이전트는 토큰을 소비함). Models 및
Sub-agents를 참조하세요.강한 경고: 더 약하거나 지나치게 양자화된 모델은 프롬프트 주입과 안전하지 않은 동작에 더 취약합니다. Security를 참조하세요.추가 설명: Models.
config를 지우지 않고 모델을 어떻게 바꾸나요?
config를 지우지 않고 모델을 어떻게 바꾸나요?
모델 명령을 사용하거나 모델 필드만 편집하세요. 전체 config 교체는 피하세요.안전한 방법:
- 채팅에서
/model사용(빠르고 세션별) openclaw models set ...(모델 config만 업데이트)openclaw configure --section model(대화형)~/.openclaw/openclaw.json의agents.defaults.model편집
config.apply를 사용하지 마세요.
RPC 편집에서는 먼저 config.schema.lookup으로 검사하고 config.patch를 우선 사용하세요. lookup 페이로드는 정규화된 경로, 얕은 schema 문서/제약 조건, 즉시 사용 가능한 하위 항목 요약을 제공합니다.
부분 업데이트에 사용하세요.
이미 config를 덮어썼다면 백업에서 복원하거나 openclaw doctor를 다시 실행해 복구하세요.문서: Models, Configure, Config, Doctor.자체 호스팅 모델(llama.cpp, vLLM, Ollama)을 사용할 수 있나요?
자체 호스팅 모델(llama.cpp, vLLM, Ollama)을 사용할 수 있나요?
네. 로컬 모델에는 Ollama가 가장 쉬운 경로입니다.가장 빠른 설정:
https://ollama.com/download에서 Ollama 설치ollama pull gemma4같은 로컬 모델 pull- 클라우드 모델도 원한다면
ollama signin실행 openclaw onboard를 실행하고Ollama선택Local또는Cloud + Local선택
Cloud + Local은 클라우드 모델과 로컬 Ollama 모델을 함께 제공합니다kimi-k2.5:cloud같은 클라우드 모델은 로컬 pull이 필요 없습니다- 수동 전환은
openclaw models list와openclaw models set ollama/<model>사용
OpenClaw, Flawd, Krill은 어떤 모델을 사용하나요?
OpenClaw, Flawd, Krill은 어떤 모델을 사용하나요?
- 이 배포들은 서로 다를 수 있고 시간이 지나며 바뀔 수 있습니다. 고정된 provider 권장 사항은 없습니다.
- 각 gateway의 현재 런타임 설정은
openclaw models status로 확인하세요. - 보안에 민감하거나 도구를 사용하는 에이전트에는 사용 가능한 가장 강력한 최신 세대 모델을 사용하세요.
재시작 없이 즉시 모델을 전환하려면 어떻게 하나요?
재시작 없이 즉시 모델을 전환하려면 어떻게 하나요?
독립 실행형 메시지로 이것들은 내장된 별칭입니다. 사용자 지정 별칭은 또한 provider용 특정 auth profile을 세션별로 강제할 수도 있습니다.팁: 기본값으로 돌아가고 싶다면
/model 명령을 사용하세요.agents.defaults.models를 통해 추가할 수 있습니다.사용 가능한 모델은 /model, /model list, /model status로 확인할 수 있습니다./model(및 /model list)은 간결한 번호 선택기를 표시합니다. 번호로 선택하세요./model status는 어떤 에이전트가 활성인지, 어떤 auth-profiles.json 파일이 사용 중인지, 다음에 어떤 auth profile이 시도될지를 보여줍니다.
또한 가능할 때 구성된 provider 엔드포인트(baseUrl)와 API 모드(api)도 보여줍니다.@profile로 설정한 프로필 고정을 해제하려면 어떻게 하나요?@profile 접미사 없이 /model을 다시 실행하세요./model에서 기본값을 선택하세요(또는 /model <default provider/model> 전송).
활성 auth profile은 /model status로 확인하세요.일상 작업에는 GPT 5.5를, 코딩에는 Codex 5.5를 사용할 수 있나요?
일상 작업에는 GPT 5.5를, 코딩에는 Codex 5.5를 사용할 수 있나요?
네. 하나를 기본값으로 두고 필요할 때 전환하세요.
- 빠른 전환(세션별): 현재 direct OpenAI API 키 작업에는
/model openai/gpt-5.4, GPT-5.5 Codex OAuth 작업에는/model openai-codex/gpt-5.5를 사용하세요. - 기본값: API 키 사용에는
agents.defaults.model.primary를openai/gpt-5.4로, GPT-5.5 Codex OAuth 사용에는openai-codex/gpt-5.5로 설정하세요. - 하위 에이전트: 코딩 작업은 다른 기본 모델을 가진 하위 에이전트로 라우팅하세요.
openai/gpt-5.5에 대한 direct API 키 접근은 OpenAI가
공개 API에서 GPT-5.5를 활성화하면 지원됩니다. 그 전까지 GPT-5.5는 구독/OAuth 전용입니다.Models 및 Slash commands를 참조하세요.GPT 5.5의 빠른 모드는 어떻게 구성하나요?
GPT 5.5의 빠른 모드는 어떻게 구성하나요?
세션 토글 또는 config 기본값 중 하나를 사용하세요.OpenAI에서는 빠른 모드가 지원되는 네이티브 Responses 요청에서
- 세션별: 세션이
openai/gpt-5.4또는openai-codex/gpt-5.5를 사용 중일 때/fast on전송 - 모델별 기본값:
agents.defaults.models["openai/gpt-5.4"].params.fastMode또는agents.defaults.models["openai-codex/gpt-5.5"].params.fastMode를true로 설정
service_tier = "priority"로 매핑됩니다. 세션 /fast 재정의는 config 기본값보다 우선합니다.Thinking and fast mode 및 OpenAI fast mode를 참조하세요.왜 "Model ... is not allowed"가 보인 뒤 응답이 없나요?
왜 "Model ... is not allowed"가 보인 뒤 응답이 없나요?
agents.defaults.models가 설정되어 있으면 이것이 /model과 모든
세션 재정의의 허용 목록이 됩니다. 그 목록에 없는 모델을 선택하면 다음이 반환됩니다.agents.defaults.models에 추가하거나, 허용 목록을 제거하거나, /model list에서 모델을 선택하세요.왜 "Unknown model: minimax/MiniMax-M2.7"가 보이나요?
왜 "Unknown model: minimax/MiniMax-M2.7"가 보이나요?
이것은 provider가 구성되지 않았음을 의미합니다(MiniMax provider config 또는 auth
profile을 찾을 수 없음). 그래서 모델을 해석할 수 없습니다.해결 체크리스트:
-
현재 OpenClaw 릴리스로 업그레이드하거나 소스
main에서 실행한 뒤 gateway를 재시작하세요. -
MiniMax가 구성되어 있는지(wizard 또는 JSON), 또는 MiniMax auth가
env/auth profile에 존재해 일치하는 provider가 주입될 수 있는지 확인하세요
(
minimax용MINIMAX_API_KEY,minimax-portal용MINIMAX_OAUTH_TOKEN또는 저장된 MiniMax OAuth). -
인증 경로에 맞는 정확한 모델 ID(대소문자 구분)를 사용하세요.
API 키 설정에는
minimax/MiniMax-M2.7또는minimax/MiniMax-M2.7-highspeed, OAuth 설정에는minimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeed를 사용합니다. -
다음을 실행하세요.
그리고 목록에서 선택하세요(또는 채팅에서
/model list).
MiniMax를 기본값으로 하고 복잡한 작업에는 OpenAI를 사용할 수 있나요?
MiniMax를 기본값으로 하고 복잡한 작업에는 OpenAI를 사용할 수 있나요?
네. MiniMax를 기본값으로 사용하고 필요할 때 세션별로 모델을 전환하세요.
폴백은 오류용이지 “어려운 작업”용이 아니므로 그런 다음:옵션 B: 별도 에이전트
/model 또는 별도 에이전트를 사용하세요.옵션 A: 세션별 전환- 에이전트 A 기본값: MiniMax
- 에이전트 B 기본값: OpenAI
- 에이전트별 라우팅 또는
/agent로 전환
opus / sonnet / gpt는 내장 단축어인가요?
opus / sonnet / gpt는 내장 단축어인가요?
네. OpenClaw는 몇 가지 기본 shorthand를 제공합니다(
agents.defaults.models에 해당 모델이 존재할 때만 적용됨).opus→anthropic/claude-opus-4-6sonnet→anthropic/claude-sonnet-4-6gpt→ API 키 설정에서는openai/gpt-5.4, Codex OAuth로 구성된 경우openai-codex/gpt-5.5gpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
모델 단축어(별칭)는 어떻게 정의/재정의하나요?
모델 단축어(별칭)는 어떻게 정의/재정의하나요?
별칭은 그러면
agents.defaults.models.<modelId>.alias에서 옵니다. 예시:/model sonnet(또는 지원되는 경우 /<alias>)이 해당 모델 ID로 해석됩니다.OpenRouter나 Z.AI 같은 다른 provider의 모델은 어떻게 추가하나요?
OpenRouter나 Z.AI 같은 다른 provider의 모델은 어떻게 추가하나요?
OpenRouter(토큰당 과금, 많은 모델):Z.AI(GLM 모델):provider/model을 참조했는데 필요한 provider 키가 없으면 런타임 인증 오류가 발생합니다(예: 해결 방법:
No API key found for provider "zai").새 에이전트를 추가한 뒤 provider에 대한 API key를 찾을 수 없다고 나오는 경우이는 보통 새 에이전트가 비어 있는 인증 저장소를 갖고 있기 때문입니다. 인증은 에이전트별이며 다음에 저장됩니다.openclaw agents add <id>를 실행하고 wizard 중 인증을 구성합니다.- 또는 메인 에이전트의
agentDir에서auth-profiles.json을 새 에이전트의agentDir로 복사합니다.
agentDir를 재사용하지 마세요. 인증/세션 충돌이 발생합니다.모델 페일오버와 “All models failed”
페일오버는 어떻게 동작하나요?
페일오버는 어떻게 동작하나요?
페일오버는 두 단계로 일어납니다.
- 동일 provider 내의 인증 프로필 순환
agents.defaults.model.fallbacks의 다음 모델로의 모델 폴백
429 응답보다 더 많은 경우가 포함됩니다. OpenClaw는
Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted, 그리고 주기적
사용량 기간 제한(weekly/monthly limit reached) 같은 메시지도 페일오버할 가치가 있는
rate limit으로 취급합니다.과금처럼 보이는 일부 응답은 402가 아니고, 일부 HTTP 402
응답도 그 일시적 버킷에 남습니다. provider가
401 또는 403에서 명시적 과금 텍스트를 반환하면 OpenClaw는 여전히 그것을
과금 레인에 둘 수 있지만, provider별 텍스트 매처는 해당 provider 범위로
유지됩니다(예: OpenRouter Key limit exceeded). 반대로 402
메시지가 재시도 가능한 사용량 기간 또는
조직/워크스페이스 지출 한도(daily limit reached, resets tomorrow,
organization spending limit exceeded)처럼 보이면 OpenClaw는 이를
긴 과금 비활성화가 아니라 rate_limit으로 취급합니다.컨텍스트 오버플로 오류는 다릅니다. 다음과 같은 시그니처는
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model, 또는 ollama error: context length exceeded는 모델 폴백을 진행시키지 않고 compaction/재시도 경로에 머뭅니다.일반 서버 오류 텍스트는 “unknown/error가 들어 있는 모든 것”보다
의도적으로 범위가 좁습니다. OpenClaw는 provider 범위의 일시적 형태인
Anthropic의 단순 An unknown error occurred, OpenRouter의 단순
Provider returned error, Unhandled stop reason: error 같은 stop-reason 오류, 일시적 서버 텍스트를 가진 JSON api_error 페이로드
(internal server error, unknown error, 520, upstream error, backend error), 그리고 ModelNotReadyException 같은 provider-busy 오류를
provider 컨텍스트가 맞을 때 페일오버할 가치가 있는 timeout/overloaded 신호로
취급합니다.
LLM request failed with an unknown error. 같은 일반 내부 폴백 텍스트는 보수적으로 유지되며 모델 폴백을 그 자체만으로 트리거하지 않습니다.“No credentials found for profile anthropic:default”는 무슨 뜻인가요?
“No credentials found for profile anthropic:default”는 무슨 뜻인가요?
이는 시스템이 auth profile ID
anthropic:default를 사용하려고 했지만, 예상되는 인증 저장소에서 해당 자격 증명을 찾을 수 없었다는 뜻입니다.해결 체크리스트:- auth profile이 어디에 저장되는지 확인하세요(새 경로 vs 레거시 경로)
- 현재:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - 레거시:
~/.openclaw/agent/*(openclaw doctor가 마이그레이션)
- 현재:
- env var가 Gateway에 로드되는지 확인하세요
- 셸에
ANTHROPIC_API_KEY를 설정했더라도 Gateway를 systemd/launchd로 실행하면 상속되지 않을 수 있습니다.~/.openclaw/.env에 넣거나env.shellEnv를 활성화하세요.
- 셸에
- 올바른 에이전트를 편집 중인지 확인하세요
- 멀티 에이전트 설정에서는 여러 개의
auth-profiles.json파일이 있을 수 있습니다.
- 멀티 에이전트 설정에서는 여러 개의
- 모델/인증 상태를 점검하세요
openclaw models status를 사용해 구성된 모델과 provider 인증 여부를 확인하세요.
-
Claude CLI 사용
- gateway 호스트에서
openclaw models auth login --provider anthropic --method cli --set-default를 실행하세요.
- gateway 호스트에서
-
대신 API key를 사용하려는 경우
-
gateway 호스트의
~/.openclaw/.env에ANTHROPIC_API_KEY를 넣으세요. -
누락된 프로필을 강제하는 고정 순서를 제거하세요.
-
gateway 호스트의
-
명령을 gateway 호스트에서 실행 중인지 확인하세요
- 원격 모드에서는 auth profile은 노트북이 아니라 gateway 머신에 있습니다.
왜 Google Gemini도 시도했다가 실패했나요?
왜 Google Gemini도 시도했다가 실패했나요?
모델 config에 Google Gemini가 폴백으로 포함되어 있거나 Gemini shorthand로 전환했다면 OpenClaw는 모델 폴백 중 그것을 시도합니다. Google 자격 증명을 구성하지 않았다면
No API key found for provider "google"가 표시됩니다.해결: Google 인증을 제공하거나, agents.defaults.model.fallbacks / aliases에서 Google 모델을 제거하거나 피해서 폴백이 그쪽으로 라우팅되지 않게 하세요.LLM request rejected: thinking signature required (Google Antigravity)원인: 세션 기록에 서명이 없는 thinking 블록이 포함되어 있습니다(보통
중단되거나 부분적인 스트림에서 발생). Google Antigravity는 thinking 블록에 서명을 요구합니다.해결: OpenClaw는 이제 Google Antigravity Claude에 대해 서명되지 않은 thinking 블록을 제거합니다. 그래도 계속 나타나면 새 세션을 시작하거나 해당 에이전트에 /thinking off를 설정하세요.인증 프로필: 이것이 무엇이며 어떻게 관리하나요
관련: /concepts/oauth (OAuth 흐름, 토큰 저장소, 멀티 계정 패턴)인증 프로필이란 무엇인가요?
인증 프로필이란 무엇인가요?
인증 프로필은 provider에 연결된 이름 있는 자격 증명 레코드(OAuth 또는 API key)입니다. 프로필은 다음에 저장됩니다.
일반적인 프로필 ID는 어떤 형태인가요?
일반적인 프로필 ID는 어떤 형태인가요?
OpenClaw는 다음과 같은 provider 접두사 ID를 사용합니다.
anthropic:default(이메일 ID가 없을 때 흔함)- OAuth ID의 경우
anthropic:<email> - 사용자가 선택한 사용자 지정 ID(예:
anthropic:work)
어떤 인증 프로필을 먼저 시도할지 제어할 수 있나요?
어떤 인증 프로필을 먼저 시도할지 제어할 수 있나요?
네. config는 프로필의 선택적 메타데이터와 provider별 순서(특정 에이전트를 대상으로 하려면:실제로 무엇이 시도될지 확인하려면 다음을 사용하세요.저장된 프로필이 명시적 순서에서 제외되어 있으면, probe는
그 프로필을 조용히 시도하는 대신
auth.order.<provider>)를 지원합니다. 이는 비밀을 저장하지 않으며, ID를 provider/mode에 매핑하고 순환 순서를 설정합니다.OpenClaw는 프로필이 짧은 쿨다운(rate limit/timeout/auth 실패) 또는 더 긴 비활성화 상태(과금/크레딧 부족)에 있으면 일시적으로 건너뛸 수 있습니다. 이를 확인하려면 openclaw models status --json을 실행하고 auth.unusableProfiles를 확인하세요. 조정: auth.cooldowns.billingBackoffHours*.Rate-limit 쿨다운은 모델 범위일 수도 있습니다. 하나의 모델에 대해
쿨다운 중인 프로필은 같은 provider의 형제 모델에서는 여전히 사용할 수 있을 수 있지만,
과금/비활성화 기간은 여전히 전체 프로필을 차단합니다.CLI를 통해 에이전트별 순서 재정의도 설정할 수 있습니다(해당 에이전트의 auth-state.json에 저장).excluded_by_auth_order를 보고합니다.OAuth와 API key의 차이는 무엇인가요?
OAuth와 API key의 차이는 무엇인가요?
OpenClaw는 둘 다 지원합니다.
- OAuth는 종종 구독 기반 접근을 활용합니다(해당되는 경우).
- API key는 토큰당 과금을 사용합니다.
관련 항목
- FAQ — 메인 FAQ
- FAQ — 빠른 시작 및 첫 실행 설정
- 모델 선택
- 모델 페일오버