Kompaktierung
Jedes Modell hat ein Kontextfenster — die maximale Anzahl an Tokens, die es verarbeiten kann. Wenn sich eine Unterhaltung dieser Grenze nähert, kompaktiert OpenClaw ältere Nachrichten zu einer Zusammenfassung, damit der Chat fortgesetzt werden kann.So funktioniert es
- Ältere Gesprächszüge werden zu einem kompakten Eintrag zusammengefasst.
- Die Zusammenfassung wird im Sitzungsprotokoll gespeichert.
- Aktuelle Nachrichten bleiben unverändert erhalten.
toolResult-Einträgen zusammen. Wenn ein Teilungspunkt
innerhalb eines Tool-Blocks landet, verschiebt OpenClaw die Grenze so, dass das Paar zusammenbleibt und
der aktuelle nicht zusammengefasste Tail erhalten bleibt.
Der vollständige Gesprächsverlauf bleibt auf dem Datenträger erhalten. Die Kompaktierung ändert nur, was das
Modell im nächsten Turn sieht.
Automatische Kompaktierung
Die automatische Kompaktierung ist standardmäßig aktiviert. Sie wird ausgeführt, wenn sich die Sitzung der Kontextgrenze nähert oder wenn das Modell einen Kontextüberlauffehler zurückgibt (in diesem Fall kompaktiert OpenClaw und versucht es erneut). Typische Überlaufsignaturen sindrequest_too_large, context length exceeded, input exceeds the maximum number of tokens, input token count exceeds the maximum number of input tokens, input is too long for the model und ollama error: context length exceeded.
Vor der Kompaktierung erinnert OpenClaw den Agent automatisch daran, wichtige
Notizen in memory-Dateien zu speichern. Dadurch wird Kontextverlust verhindert.
Manuelle Kompaktierung
Geben Sie in einem beliebigen Chat/compact ein, um eine Kompaktierung zu erzwingen. Fügen Sie Anweisungen hinzu, um
die Zusammenfassung zu steuern:
Ein anderes Modell verwenden
Standardmäßig verwendet die Kompaktierung das primäre Modell Ihres Agents. Sie können ein leistungsfähigeres Modell für bessere Zusammenfassungen verwenden:Hinweis zum Start der Kompaktierung
Standardmäßig läuft die Kompaktierung still im Hintergrund. Um einen kurzen Hinweis anzuzeigen, wenn die Kompaktierung startet, aktivieren SienotifyUser:
Kompaktierung vs. Pruning
| Kompaktierung | Pruning | |
|---|---|---|
| Was es tut | Fasst ältere Unterhaltung zusammen | Kürzt alte Tool-Ergebnisse |
| Gespeichert? | Ja (im Sitzungsprotokoll) | Nein (nur im Speicher, pro Anfrage) |
| Umfang | Gesamte Unterhaltung | Nur Tool-Ergebnisse |
Fehlerbehebung
Zu häufige Kompaktierung? Das Kontextfenster des Modells ist möglicherweise klein, oder Tool- Ausgaben sind möglicherweise groß. Versuchen Sie, session pruning zu aktivieren. Der Kontext fühlt sich nach der Kompaktierung veraltet an? Verwenden Sie/compact Focus on <topic>, um
die Zusammenfassung zu steuern, oder aktivieren Sie den memory flush, damit Notizen
erhalten bleiben.
Brauchen Sie einen Neuanfang? /new startet eine frische Sitzung ohne Kompaktierung.
Für die erweiterte Konfiguration (Reserve-Tokens, Beibehaltung von Bezeichnern, benutzerdefinierte
Kontext-Engines, serverseitige OpenAI-Kompaktierung) siehe den
Session Management Deep Dive.
Verwandt
- Session — Sitzungsverwaltung und Lifecycle
- Session Pruning — Kürzen von Tool-Ergebnissen
- Context — wie Kontext für Agent-Turns aufgebaut wird
- Hooks — Hooks für den Kompaktierungs-Lifecycle (before_compaction, after_compaction)