快速开始和首次运行设置
我卡住了,最快的解决方法是什么
我卡住了,最快的解决方法是什么
- Claude Code:https://www.anthropic.com/claude-code/
- OpenAI Codex:https://openai.com/codex/
PATH、服务、权限、凭证文件)。通过可修改的(git)安装方式,把完整的源代码检出提供给它们:--install-method git 切换回稳定版。提示:让智能体先规划并监督修复过程(逐步进行),然后只执行必要的命令。这样可以让改动更小,也更容易审计。如果你发现了真实的 bug 或修复方案,请提交一个 GitHub issue 或发送 PR:
https://github.com/openclaw/openclaw/issues
https://github.com/openclaw/openclaw/pulls请先从这些命令开始(在求助时分享输出):openclaw status:快速查看 Gateway 网关 / 智能体健康状态和基础配置快照。openclaw models status:检查提供商凭证和模型可用性。openclaw doctor:验证并修复常见的配置 / 状态问题。
openclaw status --all、openclaw logs --follow、
openclaw gateway status、openclaw health --verbose。快速调试循环:如果出现故障,先看最初的六十秒。
安装文档:Install、Installer flags、Updating。Heartbeat 一直跳过。跳过原因分别是什么意思?
Heartbeat 一直跳过。跳过原因分别是什么意思?
quiet-hours:不在已配置的活跃时间窗口内empty-heartbeat-file:HEARTBEAT.md存在,但只包含空白 / 仅标题的脚手架内容no-tasks-due:HEARTBEAT.md任务模式已启用,但还没有任何任务间隔到期alerts-disabled:所有 Heartbeat 可见性都已禁用(showOk、showAlerts和useIndicator全部关闭)
安装和设置 OpenClaw 的推荐方式
安装和设置 OpenClaw 的推荐方式
pnpm openclaw onboard 运行。完成新手引导后,如何打开仪表板?
完成新手引导后,如何打开仪表板?
如何在 localhost 与远程环境中为仪表板做认证?
如何在 localhost 与远程环境中为仪表板做认证?
- 打开
http://127.0.0.1:18789/。 - 如果它要求共享密钥认证,请将已配置的 token 或密码粘贴到 Control UI 设置中。
- Token 来源:
gateway.auth.token(或OPENCLAW_GATEWAY_TOKEN)。 - 密码来源:
gateway.auth.password(或OPENCLAW_GATEWAY_PASSWORD)。 - 如果尚未配置共享密钥,请使用
openclaw doctor --generate-gateway-token生成一个 token。
- Tailscale Serve(推荐):保持绑定到 loopback,运行
openclaw gateway --tailscale serve,打开https://<magicdns>/。如果gateway.auth.allowTailscale为true,身份头将满足 Control UI / WebSocket 认证要求(无需粘贴共享密钥,假定 Gateway 网关主机可信);HTTP API 仍然需要共享密钥认证,除非你明确使用私有入口none或可信代理 HTTP 认证。 来自同一客户端的错误并发 Serve 认证尝试会在失败认证限流器记录之前被串行化,因此第二次错误重试可能已经显示retry later。 - Tailnet 绑定:运行
openclaw gateway --bind tailnet --token "<token>"(或配置密码认证),打开http://<tailscale-ip>:18789/,然后在仪表板设置中粘贴匹配的共享密钥。 - 具备身份感知能力的反向代理:将 Gateway 网关 保持在一个非 loopback 的可信代理后面,配置
gateway.auth.mode: "trusted-proxy",然后打开代理 URL。 - SSH 隧道:
ssh -N -L 18789:127.0.0.1:18789 user@host,然后打开http://127.0.0.1:18789/。共享密钥认证在隧道上仍然适用;如果提示,请粘贴已配置的 token 或密码。
为什么聊天审批会有两个 exec approval 配置?
为什么聊天审批会有两个 exec approval 配置?
approvals.exec:将审批提示转发到聊天目标位置channels.<channel>.execApprovals:使该渠道充当 exec 审批的原生审批客户端
- 如果聊天已经支持命令和回复,则同一聊天中的
/approve会通过共享路径生效。 - 如果某个受支持的原生渠道可以安全推断审批者,OpenClaw 现在会在
channels.<channel>.execApprovals.enabled未设置或为"auto"时,自动启用私信优先的原生审批。 - 当原生审批卡片 / 按钮可用时,该原生 UI 是主要路径;只有在工具结果表明聊天审批不可用,或手动审批是唯一途径时,智能体才应包含手动
/approve命令。 - 只有在提示也必须转发到其他聊天或明确的运维房间时,才使用
approvals.exec。 - 只有在你明确希望将审批提示发回原始房间 / 主题时,才使用
channels.<channel>.execApprovals.target: "channel"或"both"。 - 插件审批则又是单独的一层:它们默认使用同一聊天中的
/approve、可选的approvals.plugin转发,并且只有某些原生渠道会在此基础上继续保留原生插件审批处理。
我需要什么运行时?
我需要什么运行时?
pnpm。对于 Gateway 网关,不推荐使用 Bun。能在 Raspberry Pi 上运行吗?
能在 Raspberry Pi 上运行吗?
对于 Raspberry Pi 安装,有什么建议?
对于 Raspberry Pi 安装,有什么建议?
它卡在 wake up my friend / onboarding 无法 hatch。现在怎么办?
它卡在 wake up my friend / onboarding 无法 hatch。现在怎么办?
- 重启 Gateway 网关:
- 检查状态和认证:
- 如果仍然卡住,请运行:
我可以把我的设置迁移到新机器(Mac mini)上,而不用重新做新手引导吗?
我可以把我的设置迁移到新机器(Mac mini)上,而不用重新做新手引导吗?
- 在新机器上安装 OpenClaw。
- 从旧机器复制
$OPENCLAW_STATE_DIR(默认:~/.openclaw)。 - 复制你的工作区(默认:
~/.openclaw/workspace)。 - 运行
openclaw doctor并重启 Gateway 网关服务。
~/.openclaw/ 下(例如 ~/.openclaw/agents/<agentId>/sessions/)。相关内容:Migrating、磁盘上的文件位置、
智能体工作区、Doctor、
远程模式。去哪里查看最新版本有哪些新内容?
去哪里查看最新版本有哪些新内容?
无法访问 docs.openclaw.ai(SSL 错误)
无法访问 docs.openclaw.ai(SSL 错误)
docs.openclaw.ai。请禁用它或将 docs.openclaw.ai 加入允许列表,然后重试。
也请通过这里帮助我们解除拦截:https://spa.xfinity.com/check_url_status。如果你仍然无法访问该网站,文档也镜像在 GitHub 上:
https://github.com/openclaw/openclaw/tree/main/docs稳定版和 beta 版的区别
稳定版和 beta 版的区别
latest= 稳定版beta= 用于测试的早期构建
latest。维护者也可以在需要时
直接发布到 latest。这就是为什么 beta 和稳定版在提升之后
可能指向同一个版本。查看变更内容:
https://github.com/openclaw/openclaw/blob/main/CHANGELOG.md关于安装一键命令以及 beta 与 dev 的区别,请参阅下面的折叠项。如何安装 beta 版本?beta 和 dev 有什么区别?
如何安装 beta 版本?beta 和 dev 有什么区别?
beta(提升后可能与 latest 相同)。
Dev 是 main 的移动头部版本(git);发布时,它使用 npm dist-tag dev。一键命令(macOS/Linux):如何试用最新版本?
如何试用最新版本?
- Dev 渠道(git 检出):
main 分支并从源码更新。- 可修改安装(从安装站点):
安装和新手引导通常需要多长时间?
安装和新手引导通常需要多长时间?
安装器卡住了?如何获得更多反馈?
安装器卡住了?如何获得更多反馈?
Windows 安装时提示 git not found 或 openclaw not recognized
Windows 安装时提示 git not found 或 openclaw not recognized
- 安装 Git for Windows 并确保
git在你的PATH中。 - 关闭并重新打开 PowerShell,然后重新运行安装器。
-
你的 npm 全局 bin 文件夹不在
PATH中。 -
检查路径:
-
将该目录添加到你的用户
PATH中(Windows 上不需要\bin后缀;在大多数系统上它是%AppData%\npm)。 -
更新
PATH后,关闭并重新打开 PowerShell。
Windows exec 输出显示乱码中文——我该怎么办?
Windows exec 输出显示乱码中文——我该怎么办?
system.run/exec输出中的中文显示为乱码- 同样的命令在另一个终端配置中显示正常
文档没有回答我的问题——如何获得更好的答案?
文档没有回答我的问题——如何获得更好的答案?
如何在 Linux 上安装 OpenClaw?
如何在 Linux 上安装 OpenClaw?
- Linux 快速路径 + 服务安装:Linux。
- 完整演练:入门指南。
- 安装器 + 更新:Install & updates。
如何在 VPS 上安装 OpenClaw?
如何在 VPS 上安装 OpenClaw?
云端 / VPS 安装指南在哪里?
云端 / VPS 安装指南在哪里?
- VPS hosting(所有提供商集中在一个地方)
- Fly.io
- Hetzner
- exe.dev
我可以让 OpenClaw 自行更新吗?
我可以让 OpenClaw 自行更新吗?
新手引导实际上会做什么?
新手引导实际上会做什么?
openclaw onboard 是推荐的设置路径。在本地模式下,它会引导你完成:- 模型 / 凭证设置(提供商 OAuth、API 密钥、Anthropic setup-token,以及 LM Studio 等本地模型选项)
- 工作区位置和引导文件
- Gateway 网关设置(绑定 / 端口 / 认证 / Tailscale)
- 渠道(WhatsApp、Telegram、Discord、Mattermost、Signal、iMessage,以及 QQ Bot 等内置渠道插件)
- 守护进程安装(macOS 上为 LaunchAgent;Linux / WSL2 上为 systemd 用户单元)
- 健康检查和 Skills 选择
运行这个需要 Claude 或 OpenAI 订阅吗?
运行这个需要 Claude 或 OpenAI 订阅吗?
- Anthropic API 密钥:普通 Anthropic API 计费
- OpenClaw 中的 Claude CLI / Claude 订阅认证:Anthropic 团队成员
告诉我们这种用法再次被允许,OpenClaw 因此将
claude -p用法视为该集成的受认可方式,除非 Anthropic 发布新的 政策
我可以不用 API 密钥而使用 Claude Max 订阅吗?
我可以不用 API 密钥而使用 Claude Max 订阅吗?
claude -p 用法视为该集成中受认可的方式,
除非 Anthropic 发布新的政策。如果你想要
最可预测的服务端设置,请改用 Anthropic API 密钥。你们支持 Claude 订阅认证(Claude Pro 或 Max)吗?
你们支持 Claude 订阅认证(Claude Pro 或 Max)吗?
claude -p 用法视为该集成中受认可的方式,
除非 Anthropic 发布新的政策。Anthropic setup-token 仍然作为受支持的 OpenClaw token 路径提供,但 OpenClaw 现在在可用时优先使用 Claude CLI 复用和 claude -p。
对于生产环境或多用户工作负载,Anthropic API 密钥认证仍然是
更安全、更可预测的选择。如果你想在 OpenClaw 中使用其他托管式订阅
选项,请参阅 OpenAI、Qwen / Model
Cloud、MiniMax 和 GLM
Models。为什么我会看到来自 Anthropic 的 HTTP 429 rate_limit_error?
为什么我会看到来自 Anthropic 的 HTTP 429 rate_limit_error?
Extra usage is required for long context requests,说明该请求正在尝试使用
Anthropic 的 1M 上下文测试版(context1m: true)。这只有在你的
凭证符合长上下文计费资格时才可用(API 密钥计费,或启用了 Extra Usage 的
OpenClaw Claude 登录路径)。提示:设置一个回退模型,这样当某个提供商受到速率限制时,OpenClaw 仍可继续回复。
请参阅 Models、OAuth 和
/gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context。支持 AWS Bedrock 吗?
支持 AWS Bedrock 吗?
amazon-bedrock 提供商;否则你也可以显式启用 plugins.entries.amazon-bedrock.config.discovery.enabled,或添加一个手动提供商条目。请参阅 Amazon Bedrock 和 Model providers。如果你更喜欢托管式密钥流程,在 Bedrock 前面使用一个 OpenAI 兼容代理仍然是有效选项。Codex 凭证是如何工作的?
Codex 凭证是如何工作的?
openai-codex/gpt-5.5。直接通过 OpenAI API 密钥访问时,请使用
openai/gpt-5.5。GPT-5.5 也可以通过 openai-codex/gpt-5.5 使用
订阅 / OAuth,或者通过 openai/gpt-5.5 和 agentRuntime.id: "codex" 使用原生 Codex app-server
运行。
请参阅 Model providers 和 新手引导(CLI)。为什么 OpenClaw 仍然提到 openai-codex?
为什么 OpenClaw 仍然提到 openai-codex?
openai-codex 是用于 ChatGPT / Codex OAuth 的提供商和 auth-profile id。
它也是 Codex OAuth 的显式 PI 模型前缀:openai/gpt-5.5= PI 中当前直接 OpenAI API 密钥路径openai-codex/gpt-5.5= PI 中的 Codex OAuth 路径openai/gpt-5.5+agentRuntime.id: "codex"= 原生 Codex app-server 路径openai-codex:...= 凭证配置文件 id,不是模型引用
OPENAI_API_KEY。如果你想使用 ChatGPT / Codex 订阅凭证,请通过
openclaw models auth login --provider openai-codex 登录,并在 PI 运行中使用
openai-codex/* 模型引用。为什么 Codex OAuth 限额可能与 ChatGPT 网页版不同?
为什么 Codex OAuth 限额可能与 ChatGPT 网页版不同?
openclaw models status 中显示当前可见的提供商使用情况 / 配额窗口,但它不会凭空生成,也不会将 ChatGPT 网页版的
权益标准化为直接 API 访问。如果你想使用直接的 OpenAI Platform
计费 / 限额路径,请配合 API 密钥使用 openai/*。你们支持 OpenAI 订阅凭证(Codex OAuth)吗?
你们支持 OpenAI 订阅凭证(Codex OAuth)吗?
如何设置 Gemini CLI OAuth?
如何设置 Gemini CLI OAuth?
openclaw.json 中的 client id 或 secret。步骤:- 在本地安装 Gemini CLI,确保
gemini位于PATH中- Homebrew:
brew install gemini-cli - npm:
npm install -g @google/gemini-cli
- Homebrew:
- 启用插件:
openclaw plugins enable google - 登录:
openclaw models auth login --provider google-gemini-cli --set-default - 登录后的默认模型:
google-gemini-cli/gemini-3-flash-preview - 如果请求失败,请在 gateway 主机上设置
GOOGLE_CLOUD_PROJECT或GOOGLE_CLOUD_PROJECT_ID
本地模型适合日常闲聊吗?
本地模型适合日常闲聊吗?
如何让托管模型流量保持在特定区域内?
如何让托管模型流量保持在特定区域内?
models.mode: "merge" 将 Anthropic / OpenAI 一并列出,这样在遵守所选区域提供商限制的同时,回退选项仍然可用。我必须买一台 Mac mini 才能安装这个吗?
我必须买一台 Mac mini 才能安装这个吗?
要支持 iMessage,我需要一台 Mac mini 吗?
要支持 iMessage,我需要一台 Mac mini 吗?
- 在 Linux / VPS 上运行 Gateway 网关,同时在任意已登录 Messages 的 Mac 上运行 BlueBubbles 服务器。
- 如果你想要最简单的单机设置,可以把所有内容都运行在这台 Mac 上。
如果我买一台 Mac mini 来运行 OpenClaw,我可以把它连接到我的 MacBook Pro 吗?
如果我买一台 Mac mini 来运行 OpenClaw,我可以把它连接到我的 MacBook Pro 吗?
我可以使用 Bun 吗?
我可以使用 Bun 吗?
Telegram:allowFrom 里该填什么?
Telegram:allowFrom 里该填什么?
channels.telegram.allowFrom 是人工发送者的 Telegram 用户 ID(数字)。
它不是机器人用户名。设置时只要求填写数字用户 ID。如果你的配置中已经有旧版 @username 条目,openclaw doctor --fix 可以尝试解析它们。更安全的方式(不使用第三方机器人):- 给你的机器人发私信,然后运行
openclaw logs --follow并读取from.id。
- 给你的机器人发私信,然后调用
https://api.telegram.org/bot<bot_token>/getUpdates并读取message.from.id。
- 向
@userinfobot或@getidsbot发送私信。
多个人可以使用同一个 WhatsApp 号码连接不同的 OpenClaw 实例吗?
多个人可以使用同一个 WhatsApp 号码连接不同的 OpenClaw 实例吗?
kind: "direct",发送者 E.164 格式如 +15551234567)绑定到不同的 agentId,这样每个人都会拥有自己的工作区和会话存储。回复仍然来自同一个 WhatsApp 账户,而私信访问控制(channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom)对每个 WhatsApp 账户是全局的。请参阅 Multi-Agent Routing 和 WhatsApp。我可以运行一个“快速聊天”智能体和一个“用于编码的 Opus”智能体吗?
我可以运行一个“快速聊天”智能体和一个“用于编码的 Opus”智能体吗?
Homebrew 能在 Linux 上使用吗?
Homebrew 能在 Linux 上使用吗?
/home/linuxbrew/.linuxbrew/bin(或你的 brew 前缀),这样在非登录 shell 中也能解析 brew 安装的工具。
近期构建还会在 Linux systemd 服务中预置常见的用户 bin 目录(例如 ~/.local/bin、~/.npm-global/bin、~/.local/share/pnpm、~/.bun/bin),并在设置时遵循 PNPM_HOME、NPM_CONFIG_PREFIX、BUN_INSTALL、VOLTA_HOME、ASDF_DATA_DIR、NVM_DIR 和 FNM_DIR。可修改的 git 安装与 npm install 的区别
可修改的 git 安装与 npm install 的区别
之后我还能在 npm 和 git 安装之间切换吗?
之后我还能在 npm 和 git 安装之间切换吗?
openclaw update --channel ...。
这不会删除你的数据——它只会更改 OpenClaw 的代码安装方式。
你的状态(~/.openclaw)和工作区(~/.openclaw/workspace)都不会受到影响。从 npm 切换到 git:--dry-run 可先预览计划中的模式切换。更新器会运行
Doctor 后续操作、为目标渠道刷新插件源,并且
会重启 gateway,除非你传入 --no-restart。安装器也可以强制使用任一模式:我应该在笔记本电脑上运行 Gateway 网关,还是在 VPS 上运行?
我应该在笔记本电脑上运行 Gateway 网关,还是在 VPS 上运行?
- **优点:**没有服务器成本,可直接访问本地文件,有可见的浏览器窗口。
- **缺点:**休眠 / 网络中断 = 断连,操作系统更新 / 重启会中断,且必须保持唤醒。
- **优点:**始终在线、网络稳定、没有笔记本休眠问题、更容易持续运行。
- **缺点:**通常是无头运行(使用截图),只能远程访问文件,你必须通过 SSH 更新。
在专用机器上运行 OpenClaw 有多重要?
在专用机器上运行 OpenClaw 有多重要?
最低 VPS 要求和推荐操作系统是什么?
最低 VPS 要求和推荐操作系统是什么?
- **绝对最低配置:**1 个 vCPU、1GB RAM、约 500MB 磁盘。
- **推荐配置:**1 - 2 个 vCPU、2GB RAM 或更高,以留出余量(日志、媒体、多个渠道)。Node 工具和浏览器自动化可能比较吃资源。
我可以在 VM 中运行 OpenClaw 吗?要求是什么?
我可以在 VM 中运行 OpenClaw 吗?要求是什么?
- **绝对最低配置:**1 个 vCPU、1GB RAM。
- **推荐配置:**如果你运行多个渠道、浏览器自动化或媒体工具,建议使用 2GB RAM 或更高。
- **操作系统:**Ubuntu LTS 或其他现代 Debian / Ubuntu。