LiteLLM
LiteLLM adalah gateway LLM open-source yang menyediakan API terpadu untuk 100+ model provider. Rutekan OpenClaw melalui LiteLLM untuk mendapatkan pelacakan biaya terpusat, logging, dan fleksibilitas untuk mengganti backend tanpa mengubah konfigurasi OpenClaw Anda.Mengapa menggunakan LiteLLM dengan OpenClaw?
- Pelacakan biaya — Lihat dengan tepat berapa pengeluaran OpenClaw di semua model
- Perutean model — Beralih antara Claude, GPT-4, Gemini, Bedrock tanpa perubahan konfigurasi
- Kunci virtual — Buat kunci dengan batas pengeluaran untuk OpenClaw
- Logging — Log permintaan/respons lengkap untuk debugging
- Fallback — Failover otomatis jika provider utama Anda sedang tidak tersedia
Mulai cepat
Melalui onboarding
Setup manual
- Jalankan LiteLLM Proxy:
- Arahkan OpenClaw ke LiteLLM:
Konfigurasi
Variabel environment
File konfigurasi
Kunci virtual
Buat kunci khusus untuk OpenClaw dengan batas pengeluaran:LITELLM_API_KEY.
Perutean model
LiteLLM dapat merutekan permintaan model ke backend yang berbeda. Konfigurasikan diconfig.yaml LiteLLM Anda:
claude-opus-4-6 — LiteLLM yang menangani peruteannya.
Melihat penggunaan
Periksa dashboard atau API LiteLLM:Catatan
- LiteLLM berjalan di
http://localhost:4000secara default - OpenClaw terhubung melalui endpoint
/v1bergaya proxy LiteLLM yang kompatibel dengan OpenAI - Pembentukan permintaan native yang hanya khusus OpenAI tidak berlaku melalui LiteLLM:
tidak ada
service_tier, tidak adastoreResponses, tidak ada hint prompt-cache, dan tidak ada pembentukan payload kompatibilitas reasoning OpenAI - Header atribusi OpenClaw tersembunyi (
originator,version,User-Agent) tidak disisipkan pada base URL LiteLLM kustom