OpenClaw 通过会话解析、排队、流式传输、工具执行和推理可见性这一流水线处理入站消息。本页说明从入站消息到回复的路径。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
消息流(高层)
messages.*用于前缀、排队和群组行为。agents.defaults.*用于分块流式传输和分块默认值。- 渠道覆盖项(
channels.whatsapp.*、channels.telegram.*等)用于上限和流式传输开关。
入站去重
渠道可能在重连后重新投递同一条消息。OpenClaw 会维护一个短期缓存,键由渠道/账号/对等方/会话/消息 ID 组成,因此重复投递不会触发另一次智能体运行。入站防抖
来自同一发送者的快速连续消息可以通过messages.inbound 批处理为单个智能体轮次。防抖按每个渠道 + 对话划分作用域,并使用最新消息进行回复串联/ID 处理。
配置(全局默认值 + 按渠道覆盖):
- 防抖适用于纯文本消息;媒体/附件会立即刷新。
- 控制命令会绕过防抖,因此它们保持独立,除非某个渠道显式选择加入同一发送者私信合并(例如 BlueBubbles
coalesceSameSenderDms),此时私信命令会在防抖窗口内等待,使拆分发送的载荷可以加入同一个智能体轮次。
会话和设备
会话由 Gateway 网关拥有,而不是由客户端拥有。- 直接聊天会折叠到智能体主会话键。
- 群组/渠道会获得自己的会话键。
- 会话存储和转录记录位于 Gateway 网关主机上。
工具结果元数据
工具结果content 是模型可见的结果。工具结果 details 是用于 UI 渲染、诊断、媒体投递和插件的运行时元数据。
OpenClaw 会明确保持这条边界:
toolResult.details会在提供商重放和压缩输入前被剥离。- 持久化的会话转录记录只保留有界的
details;过大的元数据会替换为标记了persistedDetailsTruncated: true的紧凑摘要。 - 插件和工具应将模型必须读取的文本放在
content中,而不是只放在details中。
入站正文和历史上下文
OpenClaw 将提示正文与命令正文分开:BodyForAgent:当前消息面向主模型的文本。渠道插件应让它聚焦于发送者当前承载提示的文本。Body:旧版提示回退。它可能包含渠道信封和可选的历史包装器,但当前渠道在BodyForAgent可用时不应依赖它作为主模型输入。CommandBody:用于指令/命令解析的原始用户文本。RawBody:CommandBody的旧版别名(为兼容性保留)。
[Chat messages since your last reply - for context][Current message - respond to this]
CommandBody(或 RawBody)设置为原始消息文本,并将 Body 保持为组合提示。结构化历史、回复、转发和渠道元数据会在提示组装期间渲染为用户角色的不受信任上下文块。
历史缓冲区可通过 messages.groupChat.historyLimit(全局默认值)以及按渠道覆盖项(例如 channels.slack.historyLimit 或 channels.telegram.accounts.<id>.historyLimit)配置(设置为 0 可禁用)。
排队和跟进
如果已有运行处于活动状态,入站消息可以排队、引导进入当前运行,或收集用于跟进轮次。- 通过
messages.queue(以及messages.queue.byChannel)配置。 - 默认模式是
steer,当引导回退到排队跟进投递时,会使用 500ms 跟进防抖。 - 模式:
steer、followup、collect、steer-backlog、interrupt,以及旧版一次一个的queue模式。
渠道运行所有权
渠道插件可以在消息进入会话队列之前保持顺序、对输入防抖,并施加传输背压。它们不应围绕智能体轮次本身施加单独的超时。一旦消息路由到会话,长时间运行的工作就由会话、工具和运行时生命周期管理,以便所有渠道都能一致地报告慢轮次并从中恢复。流式传输、分块和批处理
分块流式传输会在模型生成文本块时发送部分回复。分块会遵守渠道文本限制,并避免拆分围栏代码。 关键设置:agents.defaults.blockStreamingDefault(on|off,默认关闭)agents.defaults.blockStreamingBreak(text_end|message_end)agents.defaults.blockStreamingChunk(minChars|maxChars|breakPreference)agents.defaults.blockStreamingCoalesce(基于空闲的批处理)agents.defaults.humanDelay(分块回复之间的类人停顿)- 渠道覆盖项:
*.blockStreaming和*.blockStreamingCoalesce(非 Telegram 渠道需要显式设置*.blockStreaming: true)
推理可见性和 token
OpenClaw 可以公开或隐藏模型推理:/reasoning on|off|stream控制可见性。- 当模型生成推理内容时,它仍会计入 token 使用量。
- Telegram 支持将推理流式传输到临时草稿气泡,并在最终投递后删除;使用
/reasoning on可获得持久化推理输出。
前缀、串联和回复
出站消息格式集中在messages 中:
messages.responsePrefix、channels.<channel>.responsePrefix和channels.<channel>.accounts.<id>.responsePrefix(出站前缀级联),以及channels.whatsapp.messagePrefix(WhatsApp 入站前缀)- 通过
replyToMode和按渠道默认值进行回复串联
静默回复
确切的静默 tokenNO_REPLY / no_reply 表示“不要投递用户可见的回复”。
当某个轮次还有待处理的工具媒体(例如生成的 TTS 音频)时,OpenClaw 会剥离静默文本,但仍然投递媒体附件。
OpenClaw 会按对话类型解析该行为:
- 直接对话默认不允许静默,并将裸静默回复重写为简短的可见回退。
- 群组/渠道默认允许静默。
- 内部编排默认允许静默。
/verbose 为 on 或 full 时,才会显示原始运行器详情。
默认值位于 agents.defaults.silentReply 和 agents.defaults.silentReplyRewrite 下;surfaces.<id>.silentReply 和 surfaces.<id>.silentReplyRewrite 可以按 surface 覆盖它们。
当父会话有一个或多个待处理的已生成子智能体运行时,所有 surface 上的裸静默回复都会被丢弃而不是被重写,因此父会话会保持安静,直到子完成事件投递真正的回复。