LiteLLM
LiteLLM — це open-source шлюз LLM, який надає уніфікований API для 100+ провайдерів моделей. Маршрутизуйте OpenClaw через LiteLLM, щоб отримати централізоване відстеження витрат, журналювання та гнучкість перемикання між бекендами без змін у конфігурації OpenClaw.Навіщо використовувати LiteLLM з OpenClaw?
- Відстеження витрат — бачте точні витрати OpenClaw на всі моделі
- Маршрутизація моделей — перемикайтеся між Claude, GPT-4, Gemini, Bedrock без змін у конфігурації
- Віртуальні ключі — створюйте ключі з лімітами витрат для OpenClaw
- Журналювання — повні журнали запитів/відповідей для налагодження
- Резервні сценарії — автоматичне перемикання у разі відмови, якщо ваш основний провайдер недоступний
Швидкий старт
Через онбординг
Ручне налаштування
- Запустіть LiteLLM Proxy:
- Спрямуйте OpenClaw до LiteLLM:
Конфігурація
Змінні середовища
Файл конфігурації
Віртуальні ключі
Створіть окремий ключ для OpenClaw із лімітами витрат:LITELLM_API_KEY.
Маршрутизація моделей
LiteLLM може маршрутизувати запити до моделей на різні бекенди. Налаштуйте це у вашомуconfig.yaml LiteLLM:
claude-opus-4-6 — маршрутизацію виконує LiteLLM.
Перегляд використання
Перевіряйте панель керування LiteLLM або API:Примітки
- LiteLLM за замовчуванням працює на
http://localhost:4000 - OpenClaw підключається через сумісну з OpenAI кінцеву точку
/v1у проксі-стилі LiteLLM - Нативне формування запитів лише для OpenAI не застосовується через LiteLLM:
немає
service_tier, немаєstoreдля Responses, немає підказок кешу prompt, а також немає формування payload для сумісності з reasoning в OpenAI - Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) не додаються для користувацьких base URL LiteLLM