Honcho 为 OpenClaw 添加 AI 原生记忆。它会将对话持久化到专用服务,并随着时间推移构建用户和智能体模型,从而为你的智能体提供跨会话上下文,这种上下文能力超越了工作区 Markdown 文件。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
它提供了什么
- 跨会话记忆 — 每轮对话后都会持久化保存,因此上下文可以跨越会话重置、压缩和渠道切换继续保留。
- 用户建模 — Honcho 会为每个用户维护个人档案(偏好、事实、沟通风格),同时也为智能体维护档案(个性、习得行为)。
- 语义搜索 — 可搜索过去对话中的观察结果,而不仅限于当前会话。
- 多智能体感知 — 父智能体会自动跟踪已生成的子智能体,并将父智能体添加为子会话中的观察者。
可用工具
Honcho 会注册智能体可在对话期间使用的工具: 数据检索(快速,无需 LLM 调用):| 工具 | 作用 |
|---|---|
honcho_context | 跨会话的完整用户表示 |
honcho_search_conclusions | 对已存储结论进行语义搜索 |
honcho_search_messages | 跨会话查找消息(按发送者、日期过滤) |
honcho_session | 当前会话历史和摘要 |
| 工具 | 作用 |
|---|---|
honcho_ask | 向 Honcho 询问有关用户的问题。depth='quick' 用于事实,'thorough' 用于综合分析 |
入门指南
安装插件并运行设置:Honcho 可以完全在本地运行(自托管),也可以使用托管 API
api.honcho.dev。自托管方案不需要任何外部依赖。配置
设置位于plugins.entries["openclaw-honcho"].config 下:
baseUrl 指向你的本地服务器(例如
http://localhost:8000),并省略 API 密钥。
迁移现有记忆
如果你已有现有的工作区记忆文件(USER.md、MEMORY.md、
IDENTITY.md、memory/、canvas/),openclaw honcho setup 会检测到它们并提供迁移选项。
迁移是非破坏性的 — 文件会被上传到 Honcho。原始文件绝不会被删除或移动。
工作原理
每次 AI 轮次结束后,对话都会持久化到 Honcho。用户和智能体消息都会被观察,从而使 Honcho 能随着时间推移构建并完善其模型。 在对话期间,Honcho 工具会在before_prompt_build
阶段查询该服务,并在模型看到提示词之前注入相关上下文。这可以确保轮次边界准确,并实现相关回忆。
Honcho 与内置记忆的对比
| 内置 / QMD | Honcho | |
|---|---|---|
| 存储 | 工作区 Markdown 文件 | 专用服务(本地或托管) |
| 跨会话 | 通过记忆文件 | 自动,内置 |
| 用户建模 | 手动(写入 MEMORY.md) | 自动档案 |
| 搜索 | 向量 + 关键词(混合) | 基于观察结果的语义搜索 |
| 多智能体 | 不跟踪 | 父 / 子感知 |
| 依赖 | 无(内置)或 QMD 二进制文件 | 安装插件 |
CLI 命令
延伸阅读
- 插件源代码
- Honcho 文档
- Honcho OpenClaw 集成指南
- 记忆 — OpenClaw 记忆概览
- 上下文引擎 — 插件上下文引擎的工作方式