Compaction
Setiap model memiliki jendela konteks — jumlah token maksimum yang dapat diprosesnya. Saat percakapan mendekati batas itu, OpenClaw memadatkan pesan-pesan lama menjadi ringkasan agar chat dapat terus berlanjut.Cara kerjanya
- Giliran percakapan yang lebih lama dirangkum menjadi entri ringkas.
- Ringkasan disimpan dalam transkrip sesi.
- Pesan terbaru tetap dipertahankan utuh.
toolResult yang sesuai. Jika titik pemisahan jatuh
di dalam blok tool, OpenClaw menggeser batasnya agar pasangan itu tetap bersama dan
bagian ekor saat ini yang belum dirangkum tetap dipertahankan.
Seluruh riwayat percakapan tetap tersimpan di disk. Pemadatan hanya mengubah apa yang
dilihat model pada giliran berikutnya.
Pemadatan otomatis
Pemadatan otomatis aktif secara default. Fitur ini berjalan saat sesi mendekati batas konteks, atau saat model mengembalikan kesalahan luapan konteks (dalam hal ini OpenClaw memadatkan dan mencoba lagi). Tanda tangan luapan yang umum meliputirequest_too_large, context length exceeded, input exceeds the maximum number of tokens, input token count exceeds the maximum number of input tokens, input is too long for the model, dan ollama error: context length exceeded.
Sebelum memadatkan, OpenClaw secara otomatis mengingatkan agen untuk menyimpan catatan penting
ke file memory. Ini mencegah hilangnya konteks.
Pemadatan manual
Ketik/compact di chat mana pun untuk memaksa pemadatan. Tambahkan instruksi untuk memandu
ringkasan:
Menggunakan model yang berbeda
Secara default, pemadatan menggunakan model utama agen Anda. Anda dapat menggunakan model yang lebih mumpuni untuk ringkasan yang lebih baik:Pemberitahuan awal pemadatan
Secara default, pemadatan berjalan tanpa pemberitahuan. Untuk menampilkan pemberitahuan singkat saat pemadatan dimulai, aktifkannotifyUser:
Pemadatan vs pemangkasan
| Compaction | Pemangkasan | |
|---|---|---|
| Apa yang dilakukannya | Merangkum percakapan lama | Memangkas hasil tool lama |
| Disimpan? | Ya (dalam transkrip sesi) | Tidak (hanya di memori, per permintaan) |
| Cakupan | Seluruh percakapan | Hanya hasil tool |
Pemecahan masalah
Terlalu sering memadatkan? Jendela konteks model mungkin kecil, atau output tool mungkin besar. Coba aktifkan session pruning. Konteks terasa usang setelah pemadatan? Gunakan/compact Focus on <topic> untuk
memandu ringkasan, atau aktifkan memory flush agar catatan
tetap tersimpan.
Perlu mulai dari awal? /new memulai sesi baru tanpa memadatkan.
Untuk konfigurasi lanjutan (token cadangan, preservasi pengenal, mesin konteks kustom, pemadatan sisi server OpenAI), lihat
Pendalaman Manajemen Sesi.
Terkait
- Session — manajemen dan siklus hidup sesi
- Session Pruning — memangkas hasil tool
- Context — cara konteks dibangun untuk giliran agen
- Hooks — hook siklus hidup pemadatan (before_compaction, after_compaction)