LiteLLM
LiteLLMは、100以上のモデルプロバイダーに対する統一APIを提供するオープンソースのLLM Gatewayです。OpenClawをLiteLLM経由でルーティングすると、一元化されたコスト追跡、ロギング、およびOpenClaw設定を変更せずにバックエンドを切り替える柔軟性が得られます。OpenClawでLiteLLMを使う理由
- コスト追跡 — すべてのモデルにわたってOpenClawが正確にいくら使っているかを確認できる
- モデルルーティング — 設定変更なしでClaude、GPT-4、Gemini、Bedrockを切り替えられる
- 仮想キー — OpenClaw用に支出上限付きキーを作成できる
- ロギング — デバッグ用の完全なリクエスト/レスポンスログ
- フォールバック — 主プロバイダーがダウンしている場合の自動フェイルオーバー
クイックスタート
オンボーディング経由
手動セットアップ
- LiteLLM Proxyを起動します:
- OpenClawをLiteLLMへ向けます:
設定
環境変数
設定ファイル
仮想キー
支出上限付きのOpenClaw専用キーを作成します:LITELLM_API_KEYとして使用してください。
モデルルーティング
LiteLLMは、モデルリクエストを異なるバックエンドへルーティングできます。LiteLLMのconfig.yamlで設定します:
claude-opus-4-6を要求し、ルーティングはLiteLLMが処理します。
使用状況の確認
LiteLLMのダッシュボードまたはAPIを確認します:注記
- LiteLLMはデフォルトで
http://localhost:4000上で動作します - OpenClawは、LiteLLMのproxyスタイルOpenAI互換
/v1エンドポイント経由で接続します - LiteLLM経由では、OpenAIネイティブ専用のリクエスト整形は適用されません:
service_tierなし、Responsesのstoreなし、prompt-cacheヒントなし、 OpenAI reasoning互換ペイロード整形なし - カスタムLiteLLM base URLでは、隠しOpenClaw attributionヘッダー
(
originator、version、User-Agent)は注入されません