Penggunaan token & biaya
OpenClaw melacak token, bukan karakter. Token bersifat spesifik per model, tetapi sebagian besar model bergaya OpenAI rata-rata menggunakan ~4 karakter per token untuk teks bahasa Inggris.Cara system prompt dibangun
OpenClaw menyusun system prompt-nya sendiri pada setiap proses berjalan. Isinya mencakup:- Daftar tool + deskripsi singkat
- Daftar Skills (hanya metadata; instruksi dimuat sesuai permintaan dengan
read). Blok Skills yang ringkas dibatasi olehskills.limits.maxSkillsPromptChars, dengan override opsional per agen diagents.list[].skillsLimits.maxSkillsPromptChars. - Instruksi pembaruan mandiri
- Workspace + file bootstrap (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdsaat baru, sertaMEMORY.mdjika ada ataumemory.mdsebagai fallback huruf kecil). File besar dipotong olehagents.defaults.bootstrapMaxChars(default: 12000), dan total injeksi bootstrap dibatasi olehagents.defaults.bootstrapTotalMaxChars(default: 60000). File harianmemory/*.mdbukan bagian dari prompt bootstrap normal; file tersebut tetap sesuai permintaan melalui tool memori pada giliran biasa, tetapi/newdan/resettanpa argumen dapat menambahkan blok konteks startup sekali pakai dengan memori harian terbaru untuk giliran pertama tersebut. Awalan startup itu dikendalikan olehagents.defaults.startupContext. - Waktu (UTC + zona waktu pengguna)
- Tag balasan + perilaku Heartbeat
- Metadata runtime (host/OS/model/thinking)
Apa saja yang dihitung dalam jendela konteks
Semua yang diterima model dihitung terhadap batas konteks:- System prompt (semua bagian yang tercantum di atas)
- Riwayat percakapan (pesan pengguna + asisten)
- Pemanggilan tool dan hasil tool
- Lampiran/transkrip (gambar, audio, file)
- Ringkasan Compaction dan artefak pemangkasan
- Wrapper provider atau header keamanan (tidak terlihat, tetapi tetap dihitung)
agents.defaults.contextLimits.memoryGetMaxCharsagents.defaults.contextLimits.memoryGetDefaultLinesagents.defaults.contextLimits.toolResultMaxCharsagents.defaults.contextLimits.postCompactionMaxChars
agents.list[].contextLimits. Pengaturan ini
ditujukan untuk cuplikan runtime yang dibatasi dan blok milik runtime yang disisipkan. Pengaturan ini
terpisah dari batas bootstrap, batas konteks startup, dan batas prompt Skills.
Untuk gambar, OpenClaw mengecilkan payload gambar transkrip/tool sebelum pemanggilan provider.
Gunakan agents.defaults.imageMaxDimensionPx (default: 1200) untuk menyesuaikannya:
- Nilai yang lebih rendah biasanya mengurangi penggunaan vision-token dan ukuran payload.
- Nilai yang lebih tinggi mempertahankan lebih banyak detail visual untuk tangkapan layar OCR/UI yang berat.
/context list atau /context detail. Lihat Context.
Cara melihat penggunaan token saat ini
Gunakan ini di chat:/status→ kartu status kaya emoji dengan model sesi, penggunaan konteks, token input/output respons terakhir, dan perkiraan biaya (hanya API key)./usage off|tokens|full→ menambahkan footer penggunaan per respons ke setiap balasan.- Tersimpan per sesi (disimpan sebagai
responseUsage). - Autentikasi OAuth menyembunyikan biaya (hanya token).
- Tersimpan per sesi (disimpan sebagai
/usage cost→ menampilkan ringkasan biaya lokal dari log sesi OpenClaw.
- TUI/Web TUI:
/status+/usagedidukung. - CLI:
openclaw status --usagedanopenclaw channels listmenampilkan jendela kuota provider yang dinormalisasi (X% tersisa, bukan biaya per respons). Provider jendela penggunaan saat ini: Anthropic, GitHub Copilot, Gemini CLI, OpenAI Codex, MiniMax, Xiaomi, dan z.ai.
input_tokens /
output_tokens maupun prompt_tokens / completion_tokens, sehingga nama field
yang spesifik transport tidak mengubah /status, /usage, atau ringkasan sesi.
Penggunaan JSON Gemini CLI juga dinormalisasi: teks balasan berasal dari response, dan
stats.cached dipetakan ke cacheRead dengan stats.input_tokens - stats.cached
digunakan saat CLI tidak menyertakan field stats.input yang eksplisit.
Untuk lalu lintas Responses native keluarga OpenAI, alias penggunaan WebSocket/SSE
dinormalisasi dengan cara yang sama, dan total akan fallback ke input + output yang telah dinormalisasi saat
total_tokens tidak ada atau bernilai 0.
Saat snapshot sesi saat ini minim data, /status dan session_status juga dapat
memulihkan penghitung token/cache dan label model runtime aktif dari log penggunaan transkrip terbaru. Nilai live yang tidak nol tetap lebih diutamakan daripada nilai fallback transkrip, dan total transkrip yang lebih besar dan berorientasi prompt dapat diprioritaskan saat total tersimpan tidak ada atau lebih kecil.
Autentikasi penggunaan untuk jendela kuota provider berasal dari hook khusus provider bila tersedia;
jika tidak, OpenClaw akan fallback ke pencocokan kredensial OAuth/API key dari profil auth, env, atau config.
Perkiraan biaya (saat ditampilkan)
Biaya diperkirakan dari konfigurasi harga model Anda:input, output, cacheRead, dan
cacheWrite. Jika harga tidak ada, OpenClaw hanya menampilkan token. Token OAuth
tidak pernah menampilkan biaya dalam dolar.
Dampak TTL cache dan pemangkasan
Caching prompt provider hanya berlaku dalam jendela TTL cache. OpenClaw secara opsional dapat menjalankan cache-ttl pruning: sesi dipangkas setelah TTL cache kedaluwarsa, lalu jendela cache direset agar permintaan berikutnya dapat menggunakan kembali konteks yang baru di-cache alih-alih melakukan cache ulang seluruh riwayat. Ini menjaga biaya penulisan cache tetap lebih rendah saat sesi diam melewati TTL. Konfigurasikan di Konfigurasi Gateway dan lihat rincian perilakunya di Session pruning. Heartbeat dapat menjaga cache tetap hangat selama jeda idle. Jika TTL cache model Anda adalah1h, menetapkan interval Heartbeat sedikit di bawah itu (misalnya, 55m) dapat menghindari
cache ulang seluruh prompt, sehingga mengurangi biaya penulisan cache.
Dalam pengaturan multi-agent, Anda dapat mempertahankan satu konfigurasi model bersama dan menyesuaikan perilaku cache
per agen dengan agents.list[].params.cacheRetention.
Untuk panduan lengkap per pengaturan, lihat Prompt Caching.
Untuk harga API Anthropic, pembacaan cache jauh lebih murah daripada token
input, sedangkan penulisan cache ditagih dengan pengali yang lebih tinggi. Lihat harga
prompt caching Anthropic untuk tarif dan pengali TTL terbaru:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Contoh: menjaga cache 1h tetap hangat dengan Heartbeat
Contoh: lalu lintas campuran dengan strategi cache per agen
agents.list[].params digabungkan di atas params model yang dipilih, sehingga Anda dapat
mengoverride hanya cacheRetention dan tetap mewarisi default model lainnya tanpa perubahan.
Contoh: mengaktifkan header beta konteks Anthropic 1M
Jendela konteks 1M Anthropic saat ini masih dibatasi beta. OpenClaw dapat menyisipkan nilaianthropic-beta yang diperlukan saat Anda mengaktifkan context1m pada model Opus
atau Sonnet yang didukung.
context-1m-2025-08-07.
Ini hanya berlaku saat context1m: true ditetapkan pada entri model tersebut.
Persyaratan: kredensial harus memenuhi syarat untuk penggunaan konteks panjang. Jika tidak,
Anthropic akan merespons dengan galat batas laju dari sisi provider untuk permintaan tersebut.
Jika Anda mengautentikasi Anthropic dengan token OAuth/subscription (sk-ant-oat-*),
OpenClaw melewati header beta context-1m-* karena Anthropic saat ini
menolak kombinasi tersebut dengan HTTP 401.
Tips untuk mengurangi tekanan token
- Gunakan
/compactuntuk merangkum sesi yang panjang. - Pangkas output tool yang besar dalam alur kerja Anda.
- Turunkan
agents.defaults.imageMaxDimensionPxuntuk sesi yang banyak menggunakan tangkapan layar. - Jaga deskripsi Skills tetap singkat (daftar Skills disisipkan ke dalam prompt).
- Pilih model yang lebih kecil untuk pekerjaan yang verbose dan eksploratif.