Використання токенів і витрати
OpenClaw відстежує токени, а не символи. Токени залежать від моделі, але більшість моделей у стилі OpenAI у середньому мають ~4 символи на токен для англійського тексту.Як будується системний запит
OpenClaw збирає власний системний запит під час кожного запуску. Він містить:- Список інструментів + короткі описи
- Список Skills (лише метадані; інструкції завантажуються за потреби через
read) - Інструкції щодо самостійного оновлення
- Робочий простір + bootstrap-файли (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.md, якщо вони нові, а такожMEMORY.md, якщо присутній, абоmemory.mdяк резервний варіант у нижньому регістрі). Великі файли обрізаються заagents.defaults.bootstrapMaxChars(типово: 20000), а загальний обсяг bootstrap-інʼєкції обмежуєтьсяagents.defaults.bootstrapTotalMaxChars(типово: 150000). Файлиmemory/*.mdдоступні за потреби через інструменти пам’яті та не інʼєктуються автоматично. - Час (UTC + часовий пояс користувача)
- Теги відповіді + поведінка heartbeat
- Метадані середовища виконання (host/OS/model/thinking)
Що враховується у вікні контексту
Усе, що отримує модель, зараховується до ліміту контексту:- Системний запит (усі розділи, перелічені вище)
- Історія розмови (повідомлення користувача + асистента)
- Виклики інструментів і результати інструментів
- Вкладення/транскрипти (зображення, аудіо, файли)
- Підсумки ущільнення та артефакти обрізання
- Обгортки провайдера або заголовки безпеки (не видимі, але все одно враховуються)
agents.defaults.imageMaxDimensionPx (типово: 1200) для налаштування цього:
- Нижчі значення зазвичай зменшують використання vision-токенів і розмір payload.
- Вищі значення зберігають більше візуальних деталей для OCR або знімків екрана з інтерфейсом.
/context list або /context detail. Див. Context.
Як побачити поточне використання токенів
Використовуйте це в чаті:/status→ картка стану з емодзі з моделлю сесії, використанням контексту, вхідними/вихідними токенами останньої відповіді та орієнтовною вартістю (лише для API key)./usage off|tokens|full→ додає нижній колонтитул використання для кожної відповіді до кожної відповіді.- Зберігається для кожної сесії (зберігається як
responseUsage). - OAuth-автентифікація приховує вартість (лише токени).
- Зберігається для кожної сесії (зберігається як
/usage cost→ показує локальний підсумок витрат із логів сесій OpenClaw.
- TUI/Web TUI: підтримуються
/statusі/usage. - CLI:
openclaw status --usageіopenclaw channels listпоказують нормалізовані вікна квот провайдера (X% left, а не витрати на кожну відповідь). Поточні провайдери з вікнами використання: Anthropic, GitHub Copilot, Gemini CLI, OpenAI Codex, MiniMax, Xiaomi і z.ai.
input_tokens /
output_tokens, і prompt_tokens / completion_tokens, тож назви полів,
специфічні для транспорту, не змінюють /status, /usage або підсумки сесій.
Використання Gemini CLI JSON також нормалізується: текст відповіді береться з response, а
stats.cached мапиться на cacheRead, при цьому використовується stats.input_tokens - stats.cached,
коли CLI не надає явне поле stats.input.
Для нативного трафіку OpenAI-family Responses псевдоніми використання WebSocket/SSE
нормалізуються так само, а підсумки резервно обчислюються як нормалізований input + output, якщо
total_tokens відсутній або дорівнює 0.
Коли поточний знімок сесії містить мало даних, /status і session_status також можуть
відновлювати лічильники токенів/кешу та мітку активної моделі середовища виконання з
найсвіжішого журналу використання транскрипту. Наявні ненульові поточні значення й надалі
мають пріоритет над резервними значеннями з транскрипту, а більші загальні значення
з транскрипту, орієнтовані на запит, можуть переважати, коли збережені підсумки відсутні або менші.
Автентифікація використання для вікон квот провайдера надходить із хуків, специфічних для провайдера, якщо вони доступні;
інакше OpenClaw резервно використовує відповідні облікові дані OAuth/API key
з профілів автентифікації, env або config.
Оцінка вартості (коли показується)
Витрати оцінюються на основі конфігурації цін вашої моделі:input, output, cacheRead і
cacheWrite. Якщо ціни відсутні, OpenClaw показує лише токени. OAuth-токени
ніколи не показують вартість у доларах.
Вплив TTL кешу й обрізання
Кешування запитів провайдера застосовується лише в межах вікна TTL кешу. OpenClaw може за бажанням виконувати обрізання cache-ttl: він обрізає сесію після завершення TTL кешу, а потім скидає вікно кешу, щоб наступні запити могли повторно використовувати щойно закешований контекст замість повторного кешування всієї історії. Це допомагає зменшити витрати на запис у кеш, коли сесія простоює довше за TTL. Налаштуйте це в Gateway configuration, а деталі поведінки дивіться в Session pruning. Heartbeat може підтримувати кеш теплим упродовж періодів простою. Якщо TTL кешу вашої моделі становить1h, встановлення інтервалу heartbeat трохи менше цього значення (наприклад, 55m) може
допомогти уникнути повторного кешування всього запиту, зменшуючи витрати на запис у кеш.
У багатoагентних конфігураціях ви можете зберігати одну спільну конфігурацію моделі та налаштовувати поведінку кешу
для кожного агента через agents.list[].params.cacheRetention.
Повний посібник за всіма параметрами дивіться в Prompt Caching.
Для цін Anthropic API читання з кешу значно дешевше за input-токени,
тоді як запис у кеш оплачується з вищим множником. Актуальні тарифи та множники TTL дивіться в документації Anthropic щодо цін на prompt caching:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Приклад: підтримувати кеш 1h теплим за допомогою heartbeat
Приклад: змішаний трафік із кеш-стратегією для кожного агента
agents.list[].params об’єднується поверх params вибраної моделі, тож ви можете
перевизначити лише cacheRetention та успадкувати інші типові параметри моделі без змін.
Приклад: увімкнути beta-заголовок Anthropic 1M context
Вікно контексту Anthropic 1M наразі доступне лише через beta. OpenClaw може вставляти потрібне значенняanthropic-beta, коли ви вмикаєте context1m для підтримуваних моделей Opus
або Sonnet.
context-1m-2025-08-07.
Це застосовується лише тоді, коли context1m: true встановлено для цього запису моделі.
Вимога: облікові дані мають бути придатними для використання довгого контексту (виставлення рахунків через API key
або шлях Claude-login в OpenClaw з увімкненим Extra Usage). Інакше Anthropic відповідає
HTTP 429: rate_limit_error: Extra usage is required for long context requests.
Якщо ви автентифікуєте Anthropic за допомогою OAuth/subscription-токенів (sk-ant-oat-*),
OpenClaw пропускає beta-заголовок context-1m-*, оскільки Anthropic наразі
відхиляє таку комбінацію з HTTP 401.
Поради щодо зменшення тиску токенів
- Використовуйте
/compact, щоб підсумовувати довгі сесії. - Обрізайте великі виводи інструментів у своїх робочих процесах.
- Зменшуйте
agents.defaults.imageMaxDimensionPxдля сесій з великою кількістю знімків екрана. - Тримайте описи Skills короткими (список Skills інʼєктується в запит).
- Для багатослівної дослідницької роботи віддавайте перевагу меншим моделям.