빠른 시작 및 첫 실행 설정
막혔습니다. 가장 빠르게 해결하는 방법은?
막혔습니다. 가장 빠르게 해결하는 방법은?
- Claude Code: https://www.anthropic.com/claude-code/
- OpenAI Codex: https://openai.com/codex/
--install-method git 없이 설치 프로그램을 다시 실행하면 언제든 stable로 돌아갈 수 있습니다.팁: 에이전트에게 해결 과정을 계획하고 감독하게 하세요(단계별). 그런 다음 필요한 명령만 실행하세요. 그러면 변경 범위가 작아지고 감사하기도 쉬워집니다.실제 버그나 수정 사항을 발견하면 GitHub 이슈를 등록하거나 PR을 보내 주세요:
https://github.com/openclaw/openclaw/issues
https://github.com/openclaw/openclaw/pulls도움을 요청할 때는 먼저 다음 명령어를 실행하고 출력을 공유하세요.openclaw status: gateway/에이전트 상태와 기본 config의 빠른 스냅샷openclaw models status: 제공자 인증 및 모델 사용 가능 여부 확인openclaw doctor: 일반적인 config/state 문제를 검증하고 복구
openclaw status --all, openclaw logs --follow,
openclaw gateway status, openclaw health --verbose.빠른 디버그 루프: 문제가 생겼을 때 처음 60초.
설치 문서: 설치, 설치 프로그램 플래그, 업데이트.Heartbeat가 계속 건너뛰어집니다. skip 이유는 무엇을 뜻하나요?
Heartbeat가 계속 건너뛰어집니다. skip 이유는 무엇을 뜻하나요?
quiet-hours: 구성된 활성 시간 창 밖임empty-heartbeat-file:HEARTBEAT.md가 존재하지만 빈 내용이거나 헤더만 있는 스캐폴딩뿐임no-tasks-due:HEARTBEAT.md작업 모드가 활성화되어 있지만 아직 도래한 작업 간격이 없음alerts-disabled: 모든 heartbeat 표시가 비활성화됨(showOk,showAlerts,useIndicator가 모두 꺼짐)
OpenClaw를 설치하고 설정하는 권장 방법은?
OpenClaw를 설치하고 설정하는 권장 방법은?
pnpm openclaw onboard로 실행하세요.온보딩 후 대시보드는 어떻게 열 수 있나요?
온보딩 후 대시보드는 어떻게 열 수 있나요?
localhost와 원격에서 대시보드 인증은 어떻게 하나요?
localhost와 원격에서 대시보드 인증은 어떻게 하나요?
http://127.0.0.1:18789/를 엽니다.- 공유 비밀 인증을 요청하면 Control UI 설정에 구성된 token 또는 비밀번호를 붙여 넣습니다.
- Token 소스:
gateway.auth.token(또는OPENCLAW_GATEWAY_TOKEN) - 비밀번호 소스:
gateway.auth.password(또는OPENCLAW_GATEWAY_PASSWORD) - 아직 공유 비밀이 구성되지 않았다면
openclaw doctor --generate-gateway-token으로 token을 생성합니다.
- Tailscale Serve(권장): bind를 loopback으로 유지하고
openclaw gateway --tailscale serve를 실행한 뒤https://<magicdns>/를 엽니다.gateway.auth.allowTailscale이true이면 ID 헤더가 Control UI/WebSocket 인증을 충족합니다(공유 비밀을 붙여 넣을 필요 없음, 신뢰된 gateway 호스트 전제). HTTP API는 private-ingressnone또는 trusted-proxy HTTP auth를 의도적으로 사용하지 않는 한 여전히 공유 비밀 인증이 필요합니다. 같은 클라이언트에서 동시에 잘못된 Serve 인증을 시도하면, 실패한 인증 제한기가 기록하기 전에 직렬화되므로 두 번째 잘못된 재시도는 이미retry later를 표시할 수 있습니다. - Tailnet bind:
openclaw gateway --bind tailnet --token "<token>"을 실행하거나(또는 비밀번호 인증 구성)http://<tailscale-ip>:18789/를 연 다음, 대시보드 설정에 일치하는 공유 비밀을 붙여 넣습니다. - ID 인식 리버스 프록시: Gateway를 non-loopback trusted proxy 뒤에 두고
gateway.auth.mode: "trusted-proxy"를 구성한 다음 프록시 URL을 엽니다. - SSH 터널:
ssh -N -L 18789:127.0.0.1:18789 user@host후http://127.0.0.1:18789/를 엽니다. 터널을 통해서도 공유 비밀 인증은 그대로 적용되므로, 요청받으면 구성된 token 또는 비밀번호를 붙여 넣으세요.
채팅 승인에 exec approval config가 두 개 있는 이유는 무엇인가요?
채팅 승인에 exec approval config가 두 개 있는 이유는 무엇인가요?
approvals.exec: 승인 프롬프트를 채팅 대상으로 전달channels.<channel>.execApprovals: 해당 채널이 exec 승인에 대한 네이티브 승인 클라이언트로 동작하게 함
- 해당 채팅이 이미 명령어와 답글을 지원한다면 같은 채팅에서
/approve가 공통 경로를 통해 동작합니다. - 지원되는 네이티브 채널이 approver를 안전하게 추론할 수 있다면, OpenClaw는 이제
channels.<channel>.execApprovals.enabled가 미설정 또는"auto"일 때 DM 우선 네이티브 승인을 자동 활성화합니다. - 네이티브 승인 카드/버튼을 사용할 수 있으면 그 네이티브 UI가 기본 경로가 됩니다. 에이전트는 도구 결과가 채팅 승인을 사용할 수 없거나 수동 승인이 유일한 경로라고 말하는 경우에만 수동
/approve명령을 포함해야 합니다. - 프롬프트를 다른 채팅 또는 별도의 운영 룸으로도 전달해야 할 때만
approvals.exec를 사용하세요. - 승인 프롬프트를 원래 방/토픽에 다시 게시하고 싶을 때만
channels.<channel>.execApprovals.target: "channel"또는"both"를 사용하세요. - Plugin 승인은 또 별개입니다. 기본적으로 같은 채팅
/approve를 사용하고, 선택적으로approvals.plugin전달을 사용하며, 일부 네이티브 채널만 그 위에 plugin-approval-native 처리를 유지합니다.
어떤 런타임이 필요한가요?
어떤 런타임이 필요한가요?
pnpm을 권장합니다. Gateway에는 Bun을 권장하지 않습니다.Raspberry Pi에서 실행되나요?
Raspberry Pi에서 실행되나요?
Raspberry Pi 설치 팁이 있나요?
Raspberry Pi 설치 팁이 있나요?
wake up my friend에서 멈추거나 온보딩이 hatch되지 않습니다. 어떻게 하나요?
wake up my friend에서 멈추거나 온보딩이 hatch되지 않습니다. 어떻게 하나요?
- Gateway를 다시 시작하세요:
- 상태와 인증을 확인하세요:
- 그래도 멈추면 다음을 실행하세요:
새 머신(Mac mini)으로 설정을 옮길 수 있나요? 온보딩을 다시 해야 하나요?
새 머신(Mac mini)으로 설정을 옮길 수 있나요? 온보딩을 다시 해야 하나요?
- 새 머신에 OpenClaw를 설치합니다.
- 이전 머신의
$OPENCLAW_STATE_DIR(기본값:~/.openclaw)를 복사합니다. - workspace(기본값:
~/.openclaw/workspace)를 복사합니다. openclaw doctor를 실행하고 Gateway 서비스를 재시작합니다.
~/.openclaw/ 아래에 있습니다(예: ~/.openclaw/agents/<agentId>/sessions/).관련 항목: 마이그레이션, 디스크에서 파일 위치,
에이전트 workspace, Doctor,
원격 모드.최신 버전의 변경 사항은 어디서 볼 수 있나요?
최신 버전의 변경 사항은 어디서 볼 수 있나요?
docs.openclaw.ai에 접근할 수 없습니다(SSL 오류)
docs.openclaw.ai에 접근할 수 없습니다(SSL 오류)
docs.openclaw.ai를 잘못 차단합니다. 해당 기능을 끄거나 docs.openclaw.ai를 allowlist에 추가한 뒤 다시 시도하세요.
차단 해제에 도움을 주시려면 여기로 보고해 주세요: https://spa.xfinity.com/check_url_status.그래도 사이트에 접근할 수 없다면 문서는 GitHub에도 미러링되어 있습니다:
https://github.com/openclaw/openclaw/tree/main/docsstable과 beta의 차이
stable과 beta의 차이
latest= stablebeta= 테스트용 초기 빌드
latest로 이동합니다. 유지관리자가 필요에 따라 바로 latest로 게시할 수도 있습니다. 그래서 승격 후에는 beta와 stable이 같은 버전을 가리킬 수 있습니다.변경 사항 보기:
https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md설치 원라이너와 beta와 dev의 차이는 아래 아코디언을 참조하세요.beta 버전은 어떻게 설치하나요? 그리고 beta와 dev의 차이는 무엇인가요?
beta 버전은 어떻게 설치하나요? 그리고 beta와 dev의 차이는 무엇인가요?
beta입니다(승격 후 latest와 같을 수 있음).
Dev는 main의 이동하는 헤드(git)이며, 게시될 때는 npm dist-tag dev를 사용합니다.원라이너(macOS/Linux):최신 빌드는 어떻게 써보나요?
최신 빌드는 어떻게 써보나요?
설치와 온보딩은 보통 얼마나 걸리나요?
설치와 온보딩은 보통 얼마나 걸리나요?
설치 프로그램이 멈췄나요? 더 많은 피드백은 어떻게 보나요?
설치 프로그램이 멈췄나요? 더 많은 피드백은 어떻게 보나요?
Windows 설치에서 git not found 또는 openclaw not recognized가 나옵니다
Windows 설치에서 git not found 또는 openclaw not recognized가 나옵니다
- Git for Windows를 설치하고
git이 PATH에 있는지 확인하세요. - PowerShell을 닫았다가 다시 연 다음 설치 프로그램을 다시 실행하세요.
- npm 전역 bin 폴더가 PATH에 없습니다.
-
경로 확인:
-
그 디렉터리를 사용자 PATH에 추가하세요(Windows에서는
\bin접미사가 필요하지 않으며, 대부분의 시스템에서는%AppData%\npm입니다). - PATH를 수정한 뒤 PowerShell을 닫았다가 다시 열어야 합니다.
Windows exec 출력에 깨진 중국어 텍스트가 보입니다. 어떻게 해야 하나요?
Windows exec 출력에 깨진 중국어 텍스트가 보입니다. 어떻게 해야 하나요?
system.run/exec출력에서 중국어가 깨져 보임- 같은 명령어가 다른 터미널 프로필에서는 정상적으로 보임
문서가 제 질문에 답하지 못했습니다. 더 나은 답을 얻으려면 어떻게 해야 하나요?
문서가 제 질문에 답하지 못했습니다. 더 나은 답을 얻으려면 어떻게 해야 하나요?
Linux에 OpenClaw는 어떻게 설치하나요?
Linux에 OpenClaw는 어떻게 설치하나요?
VPS에 OpenClaw를 어떻게 설치하나요?
VPS에 OpenClaw를 어떻게 설치하나요?
클라우드/VPS 설치 가이드는 어디 있나요?
클라우드/VPS 설치 가이드는 어디 있나요?
OpenClaw에게 스스로 업데이트하라고 시킬 수 있나요?
OpenClaw에게 스스로 업데이트하라고 시킬 수 있나요?
온보딩은 실제로 무엇을 하나요?
온보딩은 실제로 무엇을 하나요?
openclaw onboard는 권장되는 설정 경로입니다. 로컬 모드에서 다음을 안내합니다.- 모델/인증 설정(제공자 OAuth, API key, Anthropic setup-token, LM Studio 같은 로컬 모델 옵션 포함)
- Workspace 위치 + 부트스트랩 파일
- Gateway 설정(bind/port/auth/tailscale)
- 채널(WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage, 그리고 QQ Bot 같은 번들 채널 Plugins)
- 데몬 설치(macOS의 LaunchAgent, Linux/WSL2의 systemd user unit)
- 상태 검사 및 Skills 선택
이걸 실행하려면 Claude나 OpenAI 구독이 필요한가요?
이걸 실행하려면 Claude나 OpenAI 구독이 필요한가요?
- Anthropic API key: 일반 Anthropic API 과금
- OpenClaw 내부의 Claude CLI / Claude 구독 인증: Anthropic 직원이
이 사용이 다시 허용된다고 알려왔고, Anthropic이 새 정책을 발표하지 않는 한
OpenClaw는 이 통합에 대해
claude -p사용을 허용된 것으로 취급합니다.
API key 없이 Claude Max 구독을 사용할 수 있나요?
API key 없이 Claude Max 구독을 사용할 수 있나요?
claude -p 사용을 허용된 것으로 취급합니다. 가장 예측 가능한 서버 측 설정을 원한다면
대신 Anthropic API key를 사용하세요.Claude 구독 인증(Claude Pro 또는 Max)을 지원하나요?
Claude 구독 인증(Claude Pro 또는 Max)을 지원하나요?
claude -p 사용을 허용된 것으로 취급합니다.Anthropic setup-token도 여전히 지원되는 OpenClaw token 경로로 제공되지만, 가능하면 OpenClaw는 이제 Claude CLI 재사용과 claude -p를 우선합니다.
프로덕션 또는 다중 사용자 워크로드에서는 Anthropic API key 인증이 여전히 더
안전하고 예측 가능한 선택입니다. OpenClaw에서 다른 구독형 호스팅 옵션을 원한다면
OpenAI, Qwen / Model
Cloud, MiniMax, GLM
Models을 참조하세요.왜 Anthropic에서 HTTP 429 rate_limit_error가 보이나요?
왜 Anthropic에서 HTTP 429 rate_limit_error가 보이나요?
Extra usage is required for long context requests
요청이 Anthropic의 1M 컨텍스트 베타(context1m: true)를 사용하려는 것입니다. 이는
자격 증명이 장문맥 과금에 적합할 때만 동작합니다(API key 과금 또는 Extra Usage가 활성화된
OpenClaw Claude 로그인 경로).팁: 대체 모델을 설정해 두면 제공자가 속도 제한에 걸렸을 때도 OpenClaw가 계속 응답할 수 있습니다.
모델, OAuth, 그리고
/gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context를 참조하세요.AWS Bedrock을 지원하나요?
AWS Bedrock을 지원하나요?
amazon-bedrock 제공자로 병합할 수 있습니다. 그렇지 않으면 plugins.entries.amazon-bedrock.config.discovery.enabled를 명시적으로 활성화하거나 수동 제공자 항목을 추가할 수 있습니다. Amazon Bedrock 및 모델 제공자를 참조하세요. 관리형 key 흐름을 선호한다면 Bedrock 앞단에 OpenAI 호환 프록시를 두는 방식도 여전히 유효합니다.Codex 인증은 어떻게 동작하나요?
Codex 인증은 어떻게 동작하나요?
openai-codex/gpt-5.5를 사용하세요. 현재 직접 OpenAI API key 액세스에는
openai/gpt-5.4를 사용합니다. GPT-5.5 직접 API key 액세스는 OpenAI가 공개 API에서 이를 활성화하면 지원되며, 현재 GPT-5.5는 openai-codex/gpt-5.5를 통한 구독/OAuth 또는 openai/gpt-5.5와 embeddedHarness.runtime: "codex"를 사용하는 네이티브 Codex app-server 실행을 사용합니다.
모델 제공자 및 온보딩(CLI)를 참조하세요.왜 OpenClaw는 아직도 openai-codex를 언급하나요?
왜 OpenClaw는 아직도 openai-codex를 언급하나요?
openai-codex는 ChatGPT/Codex OAuth의 provider이자 auth-profile ID입니다.
또한 Codex OAuth의 명시적 PI 모델 접두사이기도 합니다.openai/gpt-5.4= 현재 PI의 직접 OpenAI API key 경로openai/gpt-5.5= OpenAI가 API에서 GPT-5.5를 활성화한 후의 미래 직접 API key 경로openai-codex/gpt-5.5= PI의 Codex OAuth 경로openai/gpt-5.5+embeddedHarness.runtime: "codex"= 네이티브 Codex app-server 경로openai-codex:...= 모델 ref가 아니라 auth profile ID
OPENAI_API_KEY를 설정하세요. ChatGPT/Codex 구독 인증을 원한다면
openclaw models auth login --provider openai-codex로 로그인하고
PI 실행에는 openai-codex/* 모델 ref를 사용하세요.왜 Codex OAuth 한도가 ChatGPT 웹과 다를 수 있나요?
왜 Codex OAuth 한도가 ChatGPT 웹과 다를 수 있나요?
openclaw models status에서 보여줄 수 있지만, ChatGPT 웹 권한을 직접 API 액세스로
만들어내거나 정규화하지는 않습니다. 직접 OpenAI Platform 과금/제한 경로를 원한다면
API key와 함께 openai/*를 사용하세요.OpenAI 구독 인증(Codex OAuth)을 지원하나요?
OpenAI 구독 인증(Codex OAuth)을 지원하나요?
Gemini CLI OAuth는 어떻게 설정하나요?
Gemini CLI OAuth는 어떻게 설정하나요?
openclaw.json에 client ID나 secret를 넣는 방식이 아니라 Plugin 인증 흐름을 사용합니다.단계:- 로컬에 Gemini CLI를 설치해서
gemini가PATH에 있도록 합니다.- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- Plugin 활성화:
openclaw plugins enable google - 로그인:
openclaw models auth login --provider google-gemini-cli --set-default - 로그인 후 기본 모델:
google-gemini-cli/gemini-3-flash-preview - 요청이 실패하면 gateway 호스트에
GOOGLE_CLOUD_PROJECT또는GOOGLE_CLOUD_PROJECT_ID를 설정하세요.
가벼운 잡담에는 로컬 모델도 괜찮나요?
가벼운 잡담에는 로컬 모델도 괜찮나요?
호스팅 모델 트래픽을 특정 지역에 유지하려면 어떻게 하나요?
호스팅 모델 트래픽을 특정 지역에 유지하려면 어떻게 하나요?
models.mode: "merge"를 사용하면 Anthropic/OpenAI도 함께 나열하여, 선택한 지역 제공자를 유지하면서도 대체 경로를 계속 사용할 수 있습니다.이걸 설치하려면 Mac Mini를 꼭 사야 하나요?
이걸 설치하려면 Mac Mini를 꼭 사야 하나요?
iMessage 지원을 위해 Mac mini가 필요한가요?
iMessage 지원을 위해 Mac mini가 필요한가요?
- Gateway는 Linux/VPS에서 실행하고, BlueBubbles 서버는 Messages에 로그인된 아무 Mac에서나 실행
- 가장 단순한 단일 머신 설정을 원하면 모든 것을 Mac에서 실행
OpenClaw를 돌리려고 Mac mini를 사면, 내 MacBook Pro와 연결할 수 있나요?
OpenClaw를 돌리려고 Mac mini를 사면, 내 MacBook Pro와 연결할 수 있나요?
system.run 같은 추가 기능을 제공합니다.일반적인 패턴:- Gateway는 Mac mini에서 실행(항상 켜짐)
- MacBook Pro는 macOS 앱 또는 node host를 실행하고 Gateway에 페어링
- 상태는
openclaw nodes status/openclaw nodes list로 확인
Bun을 사용할 수 있나요?
Bun을 사용할 수 있나요?
Telegram: allowFrom에는 무엇을 넣나요?
Telegram: allowFrom에는 무엇을 넣나요?
channels.telegram.allowFrom에는 사람 발신자의 Telegram 사용자 ID(숫자)가 들어갑니다. 봇 사용자명이 아닙니다.설정 과정은 숫자 사용자 ID만 받습니다. 이미 config에 레거시 @username 항목이 있다면 openclaw doctor --fix가 이를 확인해 볼 수 있습니다.더 안전한 방법(서드파티 봇 없음):- 봇에게 DM을 보낸 다음
openclaw logs --follow를 실행해from.id를 읽으세요.
- 봇에게 DM을 보낸 다음
https://api.telegram.org/bot<bot_token>/getUpdates를 호출하고message.from.id를 읽으세요.
@userinfobot또는@getidsbot에 DM
하나의 WhatsApp 번호를 여러 OpenClaw 인스턴스에서 여러 사람이 각자 다르게 쓸 수 있나요?
하나의 WhatsApp 번호를 여러 OpenClaw 인스턴스에서 여러 사람이 각자 다르게 쓸 수 있나요?
kind: "direct", 발신자 E.164 형식 +15551234567)을 서로 다른 agentId에 바인딩하면, 각 사람은 자기만의 workspace와 세션 저장소를 갖게 됩니다. 답글은 여전히 같은 WhatsApp 계정에서 나오며, DM 액세스 제어(channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom)는 WhatsApp 계정별로 전역입니다. 멀티 에이전트 라우팅과 WhatsApp을 참조하세요.“빠른 채팅” 에이전트와 “코딩용 Opus” 에이전트를 각각 둘 수 있나요?
“빠른 채팅” 에이전트와 “코딩용 Opus” 에이전트를 각각 둘 수 있나요?
Homebrew는 Linux에서도 동작하나요?
Homebrew는 Linux에서도 동작하나요?
/home/linuxbrew/.linuxbrew/bin(또는 사용 중인 brew prefix)이 포함되어 있어야, brew로 설치한 도구가 비로그인 셸에서도 확인됩니다.
최신 빌드는 Linux systemd 서비스에서 일반적인 사용자 bin 디렉터리(예: ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin)를 앞에 추가하고, 설정된 경우 PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR, FNM_DIR도 존중합니다.해커블 git 설치와 npm 설치의 차이
해커블 git 설치와 npm 설치의 차이
나중에 npm 설치와 git 설치를 서로 전환할 수 있나요?
나중에 npm 설치와 git 설치를 서로 전환할 수 있나요?
~/.openclaw)와 workspace (~/.openclaw/workspace)는 그대로 유지됩니다.npm에서 git으로:--repair 사용).백업 팁: 백업 전략을 참조하세요.Gateway는 노트북에서 돌려야 하나요, 아니면 VPS가 나을까요?
Gateway는 노트북에서 돌려야 하나요, 아니면 VPS가 나을까요?
- 장점: 서버 비용 없음, 로컬 파일에 직접 접근 가능, 실제 브라우저 창 사용 가능
- 단점: 슬립/네트워크 끊김 = 연결 끊김, OS 업데이트/재부팅으로 중단, 계속 켜둬야 함
- 장점: 항상 켜짐, 안정적인 네트워크, 노트북 슬립 문제 없음, 계속 실행 상태 유지가 쉬움
- 단점: 보통 headless로 실행(스크린샷 사용), 원격 파일 액세스만 가능, 업데이트하려면 SSH가 필요함
OpenClaw를 전용 머신에서 돌리는 것이 얼마나 중요한가요?
OpenClaw를 전용 머신에서 돌리는 것이 얼마나 중요한가요?
최소 VPS 요구 사항과 권장 OS는 무엇인가요?
최소 VPS 요구 사항과 권장 OS는 무엇인가요?
VM에서 OpenClaw를 실행할 수 있나요? 요구 사항은 무엇인가요?
VM에서 OpenClaw를 실행할 수 있나요? 요구 사항은 무엇인가요?
- 절대 최소: 1 vCPU, 1GB RAM
- 권장: 여러 채널, 브라우저 자동화, 미디어 도구를 사용한다면 2GB RAM 이상
- OS: Ubuntu LTS 또는 다른 최신 Debian/Ubuntu