Penggunaan token & biaya
OpenClaw melacak token, bukan karakter. Token bersifat spesifik untuk model, tetapi sebagian besar model bergaya OpenAI rata-rata sekitar ~4 karakter per token untuk teks bahasa Inggris.Cara prompt sistem dibangun
OpenClaw menyusun prompt sistemnya sendiri pada setiap proses berjalan. Ini mencakup:- Daftar tool + deskripsi singkat
- Daftar Skills (hanya metadata; instruksi dimuat sesuai permintaan dengan
read) - Instruksi pembaruan mandiri
- File workspace + bootstrap (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdsaat baru, ditambahMEMORY.mdjika ada ataumemory.mdsebagai fallback huruf kecil). File besar dipotong olehagents.defaults.bootstrapMaxChars(default: 20000), dan total injeksi bootstrap dibatasi olehagents.defaults.bootstrapTotalMaxChars(default: 150000). Filememory/*.mdtersedia sesuai permintaan melalui tool memori dan tidak disuntikkan secara otomatis. - Waktu (UTC + zona waktu pengguna)
- Tag balasan + perilaku heartbeat
- Metadata runtime (host/OS/model/thinking)
Apa yang dihitung dalam jendela konteks
Semua yang diterima model dihitung terhadap batas konteks:- Prompt sistem (semua bagian yang tercantum di atas)
- Riwayat percakapan (pesan pengguna + asisten)
- Pemanggilan tool dan hasil tool
- Lampiran/transkrip (gambar, audio, file)
- Ringkasan pemadatan dan artefak pemangkasan
- Wrapper penyedia atau header keamanan (tidak terlihat, tetapi tetap dihitung)
agents.defaults.imageMaxDimensionPx (default: 1200) untuk menyesuaikan ini:
- Nilai yang lebih rendah biasanya mengurangi penggunaan vision-token dan ukuran payload.
- Nilai yang lebih tinggi mempertahankan lebih banyak detail visual untuk OCR/tangkapan layar UI yang padat.
/context list atau /context detail. Lihat Context.
Cara melihat penggunaan token saat ini
Gunakan ini di chat:/status→ kartu status kaya emoji dengan model sesi, penggunaan konteks, token input/output respons terakhir, dan perkiraan biaya (hanya kunci API)./usage off|tokens|full→ menambahkan footer penggunaan per respons ke setiap balasan.- Disimpan per sesi (disimpan sebagai
responseUsage). - Autentikasi OAuth menyembunyikan biaya (hanya token).
- Disimpan per sesi (disimpan sebagai
/usage cost→ menampilkan ringkasan biaya lokal dari log sesi OpenClaw.
- TUI/Web TUI:
/status+/usagedidukung. - CLI:
openclaw status --usagedanopenclaw channels listmenampilkan jendela kuota penyedia yang dinormalisasi (X% tersisa, bukan biaya per respons). Penyedia jendela penggunaan saat ini: Anthropic, GitHub Copilot, Gemini CLI, OpenAI Codex, MiniMax, Xiaomi, dan z.ai.
input_tokens /
output_tokens maupun prompt_tokens / completion_tokens, sehingga nama field
yang spesifik transport tidak mengubah /status, /usage, atau ringkasan sesi.
Penggunaan JSON Gemini CLI juga dinormalisasi: teks balasan berasal dari response, dan
stats.cached dipetakan ke cacheRead dengan stats.input_tokens - stats.cached
digunakan saat CLI tidak menyertakan field stats.input yang eksplisit.
Untuk traffic Responses keluarga OpenAI native, alias penggunaan WebSocket/SSE dinormalisasi
dengan cara yang sama, dan total fallback ke input + output yang dinormalisasi saat
total_tokens tidak ada atau bernilai 0.
Saat snapshot sesi saat ini jarang datanya, /status dan session_status juga dapat
memulihkan penghitung token/cache dan label model runtime aktif dari log penggunaan
transkrip terbaru. Nilai live nonnol yang sudah ada tetap diprioritaskan daripada nilai fallback transkrip, dan total transkrip yang lebih besar dan berorientasi prompt
dapat menang saat total tersimpan tidak ada atau lebih kecil.
Autentikasi penggunaan untuk jendela kuota penyedia berasal dari hook khusus penyedia bila tersedia;
jika tidak, OpenClaw fallback dengan mencocokkan kredensial OAuth/kunci API
dari profil autentikasi, env, atau konfigurasi.
Estimasi biaya (saat ditampilkan)
Biaya diperkirakan dari konfigurasi harga model Anda:input, output, cacheRead, dan
cacheWrite. Jika harga tidak ada, OpenClaw hanya menampilkan token. Token OAuth
tidak pernah menampilkan biaya dalam dolar.
Dampak TTL cache dan pemangkasan
Caching prompt penyedia hanya berlaku dalam jendela TTL cache. OpenClaw dapat secara opsional menjalankan pemangkasan cache-ttl: sistem memangkas sesi setelah TTL cache berakhir, lalu mereset jendela cache agar permintaan berikutnya dapat menggunakan kembali konteks yang baru dicache alih-alih mencache ulang seluruh riwayat. Ini menjaga biaya penulisan cache tetap lebih rendah saat sesi menganggur melewati TTL. Konfigurasikan ini di Konfigurasi gateway dan lihat detail perilakunya di Pemangkasan sesi. Heartbeat dapat menjaga cache tetap hangat selama jeda idle. Jika TTL cache model Anda adalah1h, menetapkan interval heartbeat sedikit di bawahnya (misalnya, 55m) dapat menghindari
pencachean ulang seluruh prompt, sehingga mengurangi biaya penulisan cache.
Dalam penyiapan multi-agen, Anda dapat mempertahankan satu konfigurasi model bersama dan menyesuaikan perilaku cache
per agen dengan agents.list[].params.cacheRetention.
Untuk panduan lengkap per pengaturan, lihat Prompt Caching.
Untuk harga API Anthropic, pembacaan cache jauh lebih murah daripada token
input, sedangkan penulisan cache ditagih dengan pengali yang lebih tinggi. Lihat harga prompt caching Anthropic untuk tarif terbaru dan pengali TTL:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Contoh: jaga cache 1h tetap hangat dengan heartbeat
Contoh: traffic campuran dengan strategi cache per agen
agents.list[].params digabungkan di atas params model yang dipilih, sehingga Anda dapat
mengganti hanya cacheRetention dan mewarisi default model lainnya tanpa perubahan.
Contoh: aktifkan header beta Anthropic 1M context
Jendela konteks 1M Anthropic saat ini dibatasi beta. OpenClaw dapat menyuntikkan nilaianthropic-beta yang diperlukan saat Anda mengaktifkan context1m pada model Opus
atau Sonnet yang didukung.
context-1m-2025-08-07.
Ini hanya berlaku saat context1m: true ditetapkan pada entri model tersebut.
Persyaratan: kredensial harus memenuhi syarat untuk penggunaan konteks panjang (penagihan kunci API,
atau jalur login Claude milik OpenClaw dengan Extra Usage diaktifkan). Jika tidak,
Anthropic merespons
dengan HTTP 429: rate_limit_error: Extra usage is required for long context requests.
Jika Anda mengautentikasi Anthropic dengan token OAuth/langganan (sk-ant-oat-*),
OpenClaw melewati header beta context-1m-* karena Anthropic saat ini
menolak kombinasi itu dengan HTTP 401.
Tips untuk mengurangi tekanan token
- Gunakan
/compactuntuk merangkum sesi yang panjang. - Pangkas output tool yang besar dalam alur kerja Anda.
- Turunkan
agents.defaults.imageMaxDimensionPxuntuk sesi yang banyak menggunakan tangkapan layar. - Jaga deskripsi Skills tetap singkat (daftar skill disuntikkan ke prompt).
- Pilih model yang lebih kecil untuk pekerjaan yang verbose dan eksploratif.