Honcho เพิ่ม memory แบบ AI-native ให้กับ OpenClaw โดยจะเก็บ บทสนทนาไว้ในบริการเฉพาะ และสร้างแบบจำลองผู้ใช้และเอเจนต์ตามเวลา ทำให้เอเจนต์ของคุณมีบริบทข้ามเซสชันที่ไปไกลกว่าไฟล์ Markdown ของ workspaceDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
สิ่งที่มันมีให้
- memory ข้ามเซสชัน — บทสนทนาจะถูกเก็บหลังจากทุกเทิร์น ดังนั้น บริบทจะคงอยู่ข้ามการรีเซ็ตเซสชัน Compaction และการสลับแชนแนล
- การสร้างแบบจำลองผู้ใช้ — Honcho ดูแลโปรไฟล์ของผู้ใช้แต่ละคน (ความชอบ ข้อเท็จจริง รูปแบบการสื่อสาร) และของเอเจนต์ (บุคลิก ลักษณะพฤติกรรม ที่เรียนรู้มา)
- semantic search — ค้นหาจาก observations ของบทสนทนาในอดีต ไม่ใช่ แค่เซสชันปัจจุบัน
- การรับรู้หลายเอเจนต์ — parent agents จะติดตาม sub-agents ที่ spawn ขึ้นโดยอัตโนมัติ โดย parent จะถูกเพิ่มเป็น observers ใน child sessions
tools ที่มีให้
Honcho ลงทะเบียน tools ที่เอเจนต์สามารถใช้ระหว่างบทสนทนา: การดึงข้อมูล (เร็ว, ไม่มีการเรียก LLM):| Tool | สิ่งที่ทำ |
|---|---|
honcho_context | ตัวแทนผู้ใช้แบบเต็มข้ามเซสชัน |
honcho_search_conclusions | semantic search บน conclusions ที่เก็บไว้ |
honcho_search_messages | ค้นหาข้อความข้ามเซสชัน (กรองตามผู้ส่ง วันที่) |
honcho_session | ประวัติและสรุปของเซสชันปัจจุบัน |
| Tool | สิ่งที่ทำ |
|---|---|
honcho_ask | ถามเกี่ยวกับผู้ใช้ ใช้ depth='quick' สำหรับข้อเท็จจริง และ 'thorough' สำหรับการสังเคราะห์ |
เริ่มต้นใช้งาน
ติดตั้ง Plugin และรันการตั้งค่า:Honcho สามารถรันแบบภายในเครื่องทั้งหมดได้ (self-hosted) หรือผ่าน managed API ที่
api.honcho.dev สำหรับตัวเลือก self-hosted ไม่ต้องมี dependencies ภายนอก
เพิ่มเติมการกำหนดค่า
การตั้งค่าอยู่ภายใต้plugins.entries["openclaw-honcho"].config:
baseUrl ไปยังเซิร์ฟเวอร์ภายในเครื่องของคุณ (เช่น
http://localhost:8000) และไม่ต้องระบุ API key
การย้าย memory ที่มีอยู่เดิม
หากคุณมีไฟล์ memory ของ workspace อยู่แล้ว (USER.md, MEMORY.md,
IDENTITY.md, memory/, canvas/) คำสั่ง openclaw honcho setup จะตรวจพบและ
เสนอให้ย้ายไฟล์เหล่านั้น
การย้ายเป็นแบบไม่ทำลายข้อมูล — ไฟล์จะถูกอัปโหลดไปยัง Honcho โดยไฟล์ต้นฉบับ
จะไม่ถูกลบหรือย้ายออกเด็ดขาด
การทำงานของมัน
หลังจากแต่ละ AI turn บทสนทนาจะถูกเก็บลงใน Honcho ทั้งข้อความของผู้ใช้และ เอเจนต์จะถูกสังเกต ทำให้ Honcho สามารถสร้างและปรับปรุงแบบจำลองของตนต่อไปได้ ตามเวลา ระหว่างบทสนทนา tools ของ Honcho จะ query บริการในระยะbefore_prompt_build
และแทรกบริบทที่เกี่ยวข้องก่อนที่โมเดลจะเห็น prompt วิธีนี้ช่วยให้
ขอบเขตของเทิร์นแม่นยำและการเรียกคืนมีความเกี่ยวข้อง
Honcho เทียบกับ memory ในตัว
| ในตัว / QMD | Honcho | |
|---|---|---|
| การจัดเก็บ | ไฟล์ Markdown ของ workspace | บริการเฉพาะ (ภายในเครื่องหรือโฮสต์) |
| ข้ามเซสชัน | ผ่านไฟล์ memory | อัตโนมัติ มีในตัว |
| การสร้างแบบจำลองผู้ใช้ | ทำเอง (เขียนลง MEMORY.md) | โปรไฟล์อัตโนมัติ |
| การค้นหา | Vector + keyword (hybrid) | semantic บน observations |
| หลายเอเจนต์ | ไม่มีการติดตาม | รับรู้ parent/child |
| Dependencies | ไม่มี (ในตัว) หรือ QMD binary | ติดตั้ง Plugin |
คำสั่ง CLI
อ่านเพิ่มเติม
- ซอร์สโค้ดของ Plugin
- เอกสาร Honcho
- คู่มือการผสานรวม Honcho กับ OpenClaw
- Memory — ภาพรวม memory ของ OpenClaw
- Context Engines — วิธีทำงานของ Plugin context engines