Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

私有 QA 栈旨在以比单个单元测试更真实、更贴近渠道形态的方式测试 OpenClaw。 当前组成部分:
  • extensions/qa-channel:合成消息渠道,包含私信、渠道、线程、回应、编辑和删除界面。
  • extensions/qa-lab:用于观察转录、注入入站消息并导出 Markdown 报告的调试器 UI 和 QA 总线。
  • extensions/qa-matrix,未来的运行器插件:实时传输适配器,在子 QA Gateway 网关内驱动真实渠道。
  • qa/:由仓库支持的启动任务和基线 QA 场景种子资产。
  • Mantis:用于需要真实传输、浏览器截图、VM 状态和 PR 证据的错误的前后实时验证。

命令界面

每个 QA 流程都在 pnpm openclaw qa <subcommand> 下运行。许多命令有 pnpm qa:* 脚本别名;两种形式都受支持。
命令用途
qa run内置 QA 自检;写入 Markdown 报告。
qa suite针对 QA Gateway 网关通道运行由仓库支持的场景。别名:pnpm openclaw qa suite --runner multipass,用于一次性 Linux VM。
qa coverage打印 Markdown 场景覆盖率清单(--json 用于机器输出)。
qa parity-report比较两个 qa-suite-summary.json 文件并写入智能体对等报告。
qa character-eval跨多个实时模型运行角色 QA 场景,并生成评审报告。参见报告
qa manual针对选定的提供商/模型通道运行一次性提示。
qa ui启动 QA 调试器 UI 和本地 QA 总线(别名:pnpm qa:lab:ui)。
qa docker-build-image构建预制 QA Docker 镜像。
qa docker-scaffold为 QA 仪表板 + Gateway 网关通道写入 docker-compose 脚手架。
qa up构建 QA 站点,启动由 Docker 支持的栈,打印 URL(别名:pnpm qa:lab:up:fast 变体会添加 --use-prebuilt-image --bind-ui-dist --skip-ui-build)。
qa aimock仅启动 AIMock 提供商服务器。
qa mock-openai仅启动具备场景感知能力的 mock-openai 提供商服务器。
qa credentials doctor / add / list / remove管理共享 Convex 凭据池。
qa matrix针对一次性 Tuwunel homeserver 的实时传输通道。参见 Matrix QA
qa telegram针对真实私有 Telegram 群组的实时传输通道。
qa discord针对真实私有 Discord 公会渠道的实时传输通道。
qa slack针对真实私有 Slack 渠道的实时传输通道。
qa mantis用于实时传输错误的前后验证运行器,包含 Discord 状态回应证据、Crabbox 桌面/浏览器冒烟测试,以及 Slack-in-VNC 冒烟测试。参见 Mantis

操作员流程

当前 QA 操作员流程是一个双窗格 QA 站点:
  • 左侧:带有智能体的 Gateway 网关仪表板(Control UI)。
  • 右侧:QA Lab,显示类似 Slack 的转录和场景计划。
使用以下命令运行:
pnpm qa:lab:up
这会构建 QA 站点,启动由 Docker 支持的 Gateway 网关通道,并公开 QA Lab 页面,操作员或自动化 loop 可以在其中给智能体分配 QA 任务、观察真实渠道行为,并记录哪些有效、失败或仍然受阻。 为了更快地迭代 QA Lab UI,而不必每次都重建 Docker 镜像,请使用绑定挂载的 QA Lab bundle 启动栈:
pnpm openclaw qa docker-build-image
pnpm qa:lab:build
pnpm qa:lab:up:fast
pnpm qa:lab:watch
qa:lab:up:fast 会让 Docker 服务使用预构建镜像,并将 extensions/qa-lab/web/dist 绑定挂载到 qa-lab 容器中。qa:lab:watch 会在变更时重建该 bundle,并且浏览器会在 QA Lab 资产哈希变化时自动重新加载。 要进行本地 OpenTelemetry trace 冒烟测试,请运行:
pnpm qa:otel:smoke
该脚本会启动本地 OTLP/HTTP trace 接收器,在启用 diagnostics-otel 插件的情况下运行 otel-trace-smoke QA 场景,然后解码导出的 protobuf spans,并断言发布关键形态:必须存在 openclaw.runopenclaw.harness.runopenclaw.model.callopenclaw.context.assembledopenclaw.message.delivery;成功轮次中的模型调用不得导出 StreamAbandoned;原始诊断 ID 和 openclaw.content.* 属性必须留在 trace 之外。它会在 QA 套件工件旁写入 otel-smoke-summary.json 可观测性 QA 仅保留在源码 checkout 中。npm tarball 会有意省略 QA Lab,因此包 Docker 发布通道不会运行 qa 命令。修改诊断 instrumentation 时,请从已构建的源码 checkout 运行 pnpm qa:otel:smoke 要运行真实 Matrix 传输冒烟通道,请运行:
pnpm openclaw qa matrix --profile fast --fail-fast
该通道的完整 CLI 参考、profile/场景目录、环境变量和工件布局位于 Matrix QA。简要来说:它会在 Docker 中预配一次性 Tuwunel homeserver,注册临时的驱动/SUT/观察者用户,在限定到该传输的子 QA Gateway 网关内运行真实 Matrix 插件(不使用 qa-channel),然后在 .artifacts/qa-e2e/matrix-<timestamp>/ 下写入 Markdown 报告、JSON 摘要、observed-events 工件和组合输出日志。 要运行真实传输的 Telegram、Discord 和 Slack 冒烟通道:
pnpm openclaw qa telegram
pnpm openclaw qa discord
pnpm openclaw qa slack
它们会针对一个预先存在的真实渠道,并使用两个 bot(driver + SUT)。所需环境变量、场景列表、输出工件和 Convex 凭据池记录在下方的 Telegram、Discord 和 Slack QA 参考中。 要运行带有 VNC 救援的完整 Slack 桌面 VM,请运行:
pnpm openclaw qa mantis slack-desktop-smoke \
  --gateway-setup \
  --scenario slack-canary \
  --keep-lease
该命令会租用一台 Crabbox 桌面/浏览器机器,在 VM 内运行 Slack 实时通道,在 VNC 浏览器中打开 Slack Web,捕获桌面,并将 slack-qa/ 以及 slack-desktop-smoke.png 复制回 Mantis 工件目录。通过 VNC 手动登录 Slack Web 后,可复用 --lease-id <cbx_...>。使用 --gateway-setup 时,Mantis 会在 VM 内的端口 38973 上保留一个持久运行的 OpenClaw Slack Gateway 网关;不使用时,该命令会运行普通的 bot 到 bot Slack QA 通道,并在捕获工件后退出。 使用池化实时凭据前,请运行:
pnpm openclaw qa credentials doctor
Doctor 会检查 Convex 代理环境,验证端点设置,并在存在维护者 secret 时验证 admin/list 可达性。它只报告 secret 的已设置/缺失状态。

实时传输覆盖率

实时传输通道共享一份契约,而不是各自发明自己的场景列表形态。qa-channel 是广泛的合成产品行为套件,不属于实时传输覆盖率矩阵。
通道Canary提及门控Bot 到 bot允许列表拦截顶层回复重启恢复线程跟进线程隔离回应观察帮助命令原生命令注册
Matrixxxxxxxxxx
Telegramxxxx
Discordxxxx
Slackxxx
这会将 qa-channel 保持为广泛的产品行为套件,同时让 Matrix、Telegram 和未来的实时传输共享一份明确的传输契约清单。 要运行一次性 Linux VM 通道而不把 Docker 带入 QA 路径,请运行:
pnpm openclaw qa suite --runner multipass --scenario channel-chat-baseline
这会启动一个全新的 Multipass 来宾系统,在来宾系统内安装依赖、构建 OpenClaw、运行 qa suite,然后把标准 QA 报告和摘要复制回宿主机的 .artifacts/qa-e2e/...。 它复用与宿主机上 qa suite 相同的场景选择行为。 默认情况下,宿主机和 Multipass 套件运行会使用隔离的 Gateway 网关 worker 并行执行多个选定场景。qa-channel 默认并发数为 4,并受选定场景数量限制。使用 --concurrency <count> 调整 worker 数量,或使用 --concurrency 1 进行串行执行。 当任一场景失败时,该命令会以非零状态退出。如果你想获取产物但不想产生失败退出码,请使用 --allow-failures。 实时运行会转发对来宾系统实用且受支持的 QA 认证输入:基于环境变量的提供商密钥、QA 实时提供商配置路径,以及存在时的 CODEX_HOME。将 --output-dir 保持在仓库根目录下,这样来宾系统才能通过挂载的工作区写回。

Telegram、Discord 和 Slack QA 参考

Matrix 因为场景数量以及基于 Docker 的 homeserver 供应,有一个专用页面。Telegram、Discord 和 Slack 更小,每个只有少量场景,没有配置文件系统,并且针对预先存在的真实渠道,所以它们的参考内容放在这里。

共享 CLI 标志

这些 lane 通过 extensions/qa-lab/src/live-transports/shared/live-transport-cli.ts 注册,并接受相同的标志:
标志默认值描述
--scenario <id>只运行此场景。可重复。
--output-dir <path><repo>/.artifacts/qa-e2e/{telegram,discord,slack}-<timestamp>报告、摘要、已观察消息和输出日志的写入位置。相对路径会根据 --repo-root 解析。
--repo-root <path>process.cwd()从中立 cwd 调用时的仓库根目录。
--sut-account <id>sutQA Gateway 网关配置中的临时账号 id。
--provider-mode <mode>live-frontiermock-openailive-frontier(旧版 live-openai 仍可使用)。
--model <ref> / --alt-model <ref>提供商默认值主模型/备用模型引用。
--fast关闭支持时启用提供商快速模式。
--credential-source <env|convex>env请参阅 Convex 凭证池
--credential-role <maintainer|ci>CI 中为 ci,否则为 maintainer使用 --credential-source convex 时采用的角色。
任一场景失败时,每个 lane 都会以非零状态退出。--allow-failures 会写入产物,但不会设置失败退出码。

Telegram QA

pnpm openclaw qa telegram
目标是一个真实的私有 Telegram 群组,并使用两个不同的 bot(driver + SUT)。SUT bot 必须有 Telegram 用户名;当两个 bot 都在 @BotFather 中启用 Bot-to-Bot Communication Mode 时,bot 到 bot 的观测效果最好。 使用 --credential-source env 时必需的环境变量:
  • OPENCLAW_QA_TELEGRAM_GROUP_ID — 数字聊天 id(字符串)。
  • OPENCLAW_QA_TELEGRAM_DRIVER_BOT_TOKEN
  • OPENCLAW_QA_TELEGRAM_SUT_BOT_TOKEN
可选:
  • OPENCLAW_QA_TELEGRAM_CAPTURE_CONTENT=1 会在已观察消息产物中保留消息正文(默认会脱敏)。
场景(extensions/qa-lab/src/live-transports/telegram/telegram-live.runtime.ts:44):
  • telegram-canary
  • telegram-mention-gating
  • telegram-mentioned-message-reply
  • telegram-help-command
  • telegram-commands-command
  • telegram-tools-compact-command
  • telegram-whoami-command
  • telegram-context-command
输出产物:
  • telegram-qa-report.md
  • telegram-qa-summary.json — 从 canary 开始,包含每条回复的 RTT(driver 发送 → 观察到 SUT 回复)。
  • telegram-qa-observed-messages.json — 除非设置 OPENCLAW_QA_TELEGRAM_CAPTURE_CONTENT=1,否则正文会被脱敏。

Discord QA

pnpm openclaw qa discord
目标是一个真实的私有 Discord guild 渠道,并使用两个 bot:一个由 harness 控制的 driver bot,以及一个由子 OpenClaw Gateway 网关通过内置 Discord 插件启动的 SUT bot。它会验证渠道提及处理、SUT bot 是否已向 Discord 注册原生 /help 命令,以及选择启用的 Mantis 证据场景。 使用 --credential-source env 时必需的环境变量:
  • OPENCLAW_QA_DISCORD_GUILD_ID
  • OPENCLAW_QA_DISCORD_CHANNEL_ID
  • OPENCLAW_QA_DISCORD_DRIVER_BOT_TOKEN
  • OPENCLAW_QA_DISCORD_SUT_BOT_TOKEN
  • OPENCLAW_QA_DISCORD_SUT_APPLICATION_ID — 必须与 Discord 返回的 SUT bot 用户 id 匹配(否则该 lane 会快速失败)。
可选:
  • OPENCLAW_QA_DISCORD_CAPTURE_CONTENT=1 会在已观察消息产物中保留消息正文。
场景(extensions/qa-lab/src/live-transports/discord/discord-live.runtime.ts:36):
  • discord-canary
  • discord-mention-gating
  • discord-native-help-command-registration
  • discord-status-reactions-tool-only — 选择启用的 Mantis 场景。该场景会单独运行,因为它会将 SUT 切换为始终开启、仅工具模式的 guild 回复,并设置 messages.statusReactions.enabled=true,然后捕获 REST reaction 时间线以及 HTML/PNG 视觉产物。
显式运行 Mantis status-reaction 场景:
pnpm openclaw qa discord \
  --scenario discord-status-reactions-tool-only \
  --provider-mode live-frontier \
  --model openai/gpt-5.4 \
  --alt-model openai/gpt-5.4 \
  --fast
输出产物:
  • discord-qa-report.md
  • discord-qa-summary.json
  • discord-qa-observed-messages.json — 除非设置 OPENCLAW_QA_DISCORD_CAPTURE_CONTENT=1,否则正文会被脱敏。
  • 运行 status-reaction 场景时会生成 discord-qa-reaction-timelines.jsondiscord-status-reactions-tool-only-timeline.png

Slack QA

pnpm openclaw qa slack
目标是一个真实的私有 Slack 渠道,并使用两个不同的 bot:一个由 harness 控制的 driver bot,以及一个由子 OpenClaw Gateway 网关通过内置 Slack 插件启动的 SUT bot。 使用 --credential-source env 时必需的环境变量:
  • OPENCLAW_QA_SLACK_CHANNEL_ID
  • OPENCLAW_QA_SLACK_DRIVER_BOT_TOKEN
  • OPENCLAW_QA_SLACK_SUT_BOT_TOKEN
  • OPENCLAW_QA_SLACK_SUT_APP_TOKEN
可选:
  • OPENCLAW_QA_SLACK_CAPTURE_CONTENT=1 会在已观察消息产物中保留消息正文。
场景(extensions/qa-lab/src/live-transports/slack/slack-live.runtime.ts:39):
  • slack-canary
  • slack-mention-gating
输出产物:
  • slack-qa-report.md
  • slack-qa-summary.json
  • slack-qa-observed-messages.json — 除非设置 OPENCLAW_QA_SLACK_CAPTURE_CONTENT=1,否则正文会被脱敏。

设置 Slack 工作区

该 lane 需要在一个工作区中有两个不同的 Slack 应用,以及一个两个 bot 都是成员的渠道:
  • channelId — 两个 bot 都已被邀请加入的渠道的 Cxxxxxxxxxx id。请使用专用渠道;该 lane 每次运行都会发帖。
  • driverBotTokenDriver 应用的 bot token(xoxb-...)。
  • sutBotTokenSUT 应用的 bot token(xoxb-...),它必须是与 driver 分离的 Slack 应用,这样它的 bot 用户 id 才会不同。
  • sutAppToken — SUT 应用的应用级 token(xapp-...),带有 connections:write,供 Socket Mode 使用,使 SUT 应用能够接收事件。
相比复用生产工作区,更推荐使用专门用于 QA 的 Slack 工作区。 下面的 SUT manifest 映射了内置 Slack 插件的生产安装(extensions/slack/src/setup-shared.ts:10)。关于用户看到的生产渠道设置,请参阅 Slack 渠道快速设置;QA Driver/SUT 对有意分开,因为该 lane 需要在同一个工作区中有两个不同的 bot 用户 id。 1. 创建 Driver 应用 前往 api.slack.com/appsCreate New AppFrom a manifest → 选择 QA 工作区,粘贴以下 manifest,然后点击 Install to Workspace
{
  "display_information": {
    "name": "OpenClaw QA Driver",
    "description": "Test driver bot for OpenClaw QA Slack live lane"
  },
  "features": {
    "bot_user": {
      "display_name": "OpenClaw QA Driver",
      "always_online": true
    }
  },
  "oauth_config": {
    "scopes": {
      "bot": ["chat:write", "channels:history", "groups:history", "users:read"]
    }
  },
  "settings": {
    "socket_mode_enabled": false
  }
}
复制 Bot User OAuth Tokenxoxb-...)— 它会成为 driverBotToken。driver 只需要发布消息并识别自身;不需要事件,也不需要 Socket Mode。 2. 创建 SUT 应用 在同一个工作区中重复 Create New App → From a manifest。scope 集合映射了内置 Slack 插件的生产安装(extensions/slack/src/setup-shared.ts:10):
{
  "display_information": {
    "name": "OpenClaw QA SUT",
    "description": "OpenClaw QA SUT connector for OpenClaw"
  },
  "features": {
    "bot_user": {
      "display_name": "OpenClaw QA SUT",
      "always_online": true
    },
    "app_home": {
      "home_tab_enabled": true,
      "messages_tab_enabled": true,
      "messages_tab_read_only_enabled": false
    }
  },
  "oauth_config": {
    "scopes": {
      "bot": [
        "app_mentions:read",
        "assistant:write",
        "channels:history",
        "channels:read",
        "chat:write",
        "commands",
        "emoji:read",
        "files:read",
        "files:write",
        "groups:history",
        "groups:read",
        "im:history",
        "im:read",
        "im:write",
        "mpim:history",
        "mpim:read",
        "mpim:write",
        "pins:read",
        "pins:write",
        "reactions:read",
        "reactions:write",
        "usergroups:read",
        "users:read"
      ]
    }
  },
  "settings": {
    "socket_mode_enabled": true,
    "event_subscriptions": {
      "bot_events": [
        "app_home_opened",
        "app_mention",
        "channel_rename",
        "member_joined_channel",
        "member_left_channel",
        "message.channels",
        "message.groups",
        "message.im",
        "message.mpim",
        "pin_added",
        "pin_removed",
        "reaction_added",
        "reaction_removed"
      ]
    }
  }
}
Slack 创建应用后,在其设置页面执行两项操作:
  • Install to Workspace → 复制 Bot User OAuth Token → 它会成为 sutBotToken
  • Basic Information → App-Level Tokens → Generate Token and Scopes → 添加 scope connections:write → 保存 → 复制 xapp-... 值 → 它会成为 sutAppToken
通过对每个 token 调用 auth.test 来验证这两个机器人具有不同的用户 ID。运行时通过用户 ID 区分 driver 和 SUT;如果两者复用同一个应用,提及门控会立即失败。 3. 创建渠道 在 QA 工作区中创建一个渠道(例如 #openclaw-qa),并从渠道内邀请两个机器人:
/invite @OpenClaw QA Driver
/invite @OpenClaw QA SUT
渠道信息 → 关于 → 渠道 ID 复制 Cxxxxxxxxxx ID,这会成为 channelId。公共渠道可用;如果你使用私有渠道,两个应用都已经有 groups:history,因此 harness 的历史读取仍会成功。 4. 注册凭证 有两种选择。单机调试时使用环境变量(设置四个 OPENCLAW_QA_SLACK_* 变量并传入 --credential-source env),或者为共享 Convex 池播种,让 CI 和其他维护者可以租用它们。 对于 Convex 池,将四个字段写入 JSON 文件:
{
  "channelId": "Cxxxxxxxxxx",
  "driverBotToken": "xoxb-...",
  "sutBotToken": "xoxb-...",
  "sutAppToken": "xapp-..."
}
在你的 shell 中导出 OPENCLAW_QA_CONVEX_SITE_URLOPENCLAW_QA_CONVEX_SECRET_MAINTAINER 后,注册并验证:
pnpm openclaw qa credentials add \
  --kind slack \
  --payload-file slack-creds.json \
  --note "QA Slack pool seed"

pnpm openclaw qa credentials list --kind slack --status all --json
预期 count: 1status: "active",且没有 lease 字段。 5. 端到端验证 在本地运行该 lane,确认两个机器人可以通过 broker 互相通信:
pnpm openclaw qa slack \
  --credential-source convex \
  --credential-role maintainer \
  --output-dir .artifacts/qa-e2e/slack-local
绿色运行会在远少于 30 秒内完成,并且 slack-qa-report.md 会显示 slack-canaryslack-mention-gating 的 Status 都是 pass。如果该 lane 挂起约 90 秒后以 Convex credential pool exhausted for kind "slack" 退出,说明池为空或每一行都已被租用,qa credentials list --kind slack --status all --json 会告诉你是哪种情况。

Convex 凭证池

Telegram、Discord 和 Slack lane 可以从共享 Convex 池租用凭证,而不是读取上面的环境变量。传入 --credential-source convex(或设置 OPENCLAW_QA_CREDENTIAL_SOURCE=convex);QA Lab 会获取独占租约,在运行期间发送 Heartbeat,并在关闭时释放。池种类是 "telegram""discord""slack" broker 在 admin/add 上验证的 payload 形状:
  • Telegram(kind: "telegram"):{ groupId: string, driverToken: string, sutToken: string } —— groupId 必须是数字聊天 ID 字符串。
  • Discord(kind: "discord"):{ guildId: string, channelId: string, driverBotToken: string, sutBotToken: string, sutApplicationId: string }
  • Slack(kind: "slack"):{ channelId: string, driverBotToken: string, sutBotToken: string, sutAppToken: string } —— channelId 必须匹配 ^[A-Z][A-Z0-9]+$(类似 Cxxxxxxxxxx 的 Slack ID)。有关应用和 scope 配置,请参阅 设置 Slack 工作区
操作环境变量和 Convex broker 端点契约位于 测试 → 通过 Convex 共享 Telegram 凭证(该章节名称早于 Discord 支持;两种类型的 broker 语义相同)。

仓库支持的种子

种子资产位于 qa/
  • qa/scenarios/index.md
  • qa/scenarios/<theme>/*.md
这些内容有意放在 git 中,让 QA 计划对人类和智能体都可见。 qa-lab 应保持为通用的 Markdown runner。每个场景 Markdown 文件都是一次测试运行的事实来源,并应定义:
  • 场景元数据
  • 可选的类别、能力、lane 和风险元数据
  • 文档和代码引用
  • 可选插件要求
  • 可选 Gateway 网关配置 patch
  • 可执行的 qa-flow
支撑 qa-flow 的可复用运行时表面可以保持通用且跨领域。例如,Markdown 场景可以将传输侧 helper 与浏览器侧 helper 组合起来,后者通过 Gateway 网关 browser.request seam 驱动嵌入式 Control UI,而不需要添加特例 runner。 场景文件应按产品能力分组,而不是按源码树文件夹分组。文件移动时保持场景 ID 稳定;使用 docsRefscodeRefs 实现实现可追溯性。 基线列表应保持足够宽,以覆盖:
  • 私信和渠道聊天
  • 线程行为
  • 消息操作生命周期
  • cron 回调
  • 记忆召回
  • 模型切换
  • subagent handoff
  • 仓库读取和文档读取
  • 一个小型构建任务,例如 Lobster Invaders

提供商 mock lane

qa suite 有两个本地提供商 mock lane:
  • mock-openai 是感知场景的 OpenClaw mock。它仍是仓库支持的 QA 和 parity gate 的默认确定性 mock lane。
  • aimock 会启动一个 AIMock 支持的提供商服务器,用于实验性协议、fixture、录制/回放和 chaos 覆盖。它是增量补充,不会替代 mock-openai 场景 dispatcher。
提供商 lane 实现位于 extensions/qa-lab/src/providers/ 下。每个提供商拥有自己的默认值、本地服务器启动、Gateway 网关模型配置、auth-profile 暂存需求,以及 live/mock 能力标志。共享 suite 和 Gateway 网关代码应通过提供商 registry 路由,而不是按提供商名称分支。

传输适配器

qa-lab 为 Markdown QA 场景拥有一个通用传输 seam。qa-channel 是该 seam 上的第一个适配器,但设计目标更广:未来的真实或合成渠道应接入同一个 suite runner,而不是添加传输专用的 QA runner。 在架构层面,拆分如下:
  • qa-lab 负责通用场景执行、worker 并发、artifact 写入和报告。
  • 传输适配器负责 Gateway 网关配置、就绪状态、入站和出站观察、传输操作,以及规范化传输状态。
  • qa/scenarios/ 下的 Markdown 场景文件定义测试运行;qa-lab 提供执行它们的可复用运行时表面。

添加渠道

向 Markdown QA 系统添加一个渠道只需要两件事:
  1. 该渠道的传输适配器。
  2. 覆盖渠道契约的场景包。
当共享的 qa-lab host 可以拥有该流程时,不要添加新的顶层 QA 命令根。 qa-lab 拥有共享 host 机制:
  • openclaw qa 命令根
  • suite 启动和 teardown
  • worker 并发
  • artifact 写入
  • 报告生成
  • 场景执行
  • 旧版 qa-channel 场景的兼容别名
Runner 插件拥有传输契约:
  • openclaw qa <runner> 如何挂载在共享 qa 根之下
  • Gateway 网关如何为该传输配置
  • 如何检查就绪状态
  • 如何注入入站事件
  • 如何观察出站消息
  • 如何暴露 transcript 和规范化传输状态
  • 如何执行传输支持的操作
  • 如何处理传输专用 reset 或清理
新渠道的最低采纳门槛:
  1. 保持 qa-lab 作为共享 qa 根的所有者。
  2. 在共享 qa-lab host seam 上实现传输 runner。
  3. 将传输专用机制保留在 runner 插件或渠道 harness 内。
  4. 将 runner 挂载为 openclaw qa <runner>,而不是注册一个竞争性的根命令。Runner 插件应在 openclaw.plugin.json 中声明 qaRunners,并从 runtime-api.ts 导出匹配的 qaRunnerCliRegistrations 数组。保持 runtime-api.ts 轻量;惰性 CLI 和 runner 执行应留在单独入口点之后。
  5. 在主题化的 qa/scenarios/ 目录下编写或改编 Markdown 场景。
  6. 为新场景使用通用场景 helper。
  7. 保持现有兼容别名可用,除非仓库正在进行有意的迁移。
决策规则很严格:
  • 如果行为可以在 qa-lab 中表达一次,就放到 qa-lab 中。
  • 如果行为依赖某一个渠道传输,就将它保留在对应 runner 插件或插件 harness 中。
  • 如果某个场景需要一个可被多个渠道使用的新能力,则添加通用 helper,而不是在 suite.ts 中添加渠道专用分支。
  • 如果某个行为只对一个传输有意义,则保持该场景为传输专用,并在场景契约中明确说明。

场景 helper 名称

新场景的首选通用 helper:
  • waitForTransportReady
  • waitForChannelReady
  • injectInboundMessage
  • injectOutboundMessage
  • waitForTransportOutboundMessage
  • waitForChannelOutboundMessage
  • waitForNoTransportOutbound
  • getTransportSnapshot
  • readTransportMessage
  • readTransportTranscript
  • formatTransportTranscript
  • resetTransport
现有场景仍可使用兼容别名:waitForQaChannelReadywaitForOutboundMessagewaitForNoOutboundformatConversationTranscriptresetBus,但新场景编写应使用通用名称。这些别名用于避免一次性迁移,而不是未来的模型。

报告

qa-lab 会根据观察到的 bus timeline 导出 Markdown 协议报告。报告应回答:
  • 哪些内容有效
  • 哪些内容失败
  • 哪些内容仍被阻塞
  • 哪些后续场景值得添加
如需查看可用场景清单(在评估后续工作规模或接入新传输时很有用),运行 pnpm openclaw qa coverage(添加 --json 可获得机器可读输出)。 如需进行角色和风格检查,请在多个 live 模型引用上运行同一个场景,并写入经过评审的 Markdown 报告:
pnpm openclaw qa character-eval \
  --model openai/gpt-5.5,thinking=medium,fast \
  --model openai/gpt-5.2,thinking=xhigh \
  --model openai/gpt-5,thinking=xhigh \
  --model anthropic/claude-opus-4-6,thinking=high \
  --model anthropic/claude-sonnet-4-6,thinking=high \
  --model zai/glm-5.1,thinking=high \
  --model moonshot/kimi-k2.5,thinking=high \
  --model google/gemini-3.1-pro-preview,thinking=high \
  --judge-model openai/gpt-5.5,thinking=xhigh,fast \
  --judge-model anthropic/claude-opus-4-6,thinking=high \
  --blind-judge-models \
  --concurrency 16 \
  --judge-concurrency 16
该命令运行本地 QA Gateway 网关子进程,而不是 Docker。角色评测场景应通过 SOUL.md 设置 persona,然后运行普通用户轮次,例如聊天、工作区帮助和小文件任务。不应告知候选模型它正在接受评测。该命令会保留每份完整 transcript,记录基本运行统计,然后以快速模式请求 judge models,并在支持的情况下使用 xhigh reasoning,按自然度、氛围和幽默感对运行结果排序。比较提供商时使用 --blind-judge-models:judge prompt 仍会获取每份 transcript 和运行状态,但候选引用会替换为中性标签,例如 candidate-01;报告会在解析后将排名映射回真实引用。 候选运行默认使用 high thinking,GPT-5.5 使用 medium,较旧且支持的 OpenAI eval 引用使用 xhigh。可用 --model provider/model,thinking=<level> 内联覆盖特定候选。--thinking <level> 仍会设置全局 fallback,较旧的 --model-thinking <provider/model=level> 形式会保留以兼容。 OpenAI 候选引用默认使用快速模式,因此在提供商支持时会使用 priority processing。当单个候选或 judge 需要覆盖时,可内联添加 ,fast,no-fast,fast=false。仅当你想为每个候选模型强制开启快速模式时,才传入 --fast。候选和 judge 的耗时会记录在报告中以便基准分析,但 judge prompt 会明确说明不要按速度排名。 候选和 judge 模型运行都默认并发数为 16。当提供商限制或本地 Gateway 网关压力导致运行噪声过大时,降低 --concurrency--judge-concurrency。 如果未传入候选 --model,角色评测在未传入 --model 时默认使用 openai/gpt-5.5openai/gpt-5.2openai/gpt-5anthropic/claude-opus-4-6anthropic/claude-sonnet-4-6zai/glm-5.1moonshot/kimi-k2.5google/gemini-3.1-pro-preview。 如果未传入 --judge-model,judge 默认使用 openai/gpt-5.5,thinking=xhigh,fastanthropic/claude-opus-4-6,thinking=high

相关文档