Chuyển đến nội dung chính

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

LiteLLM là một LLM Gateway mã nguồn mở cung cấp một API thống nhất cho hơn 100 nhà cung cấp mô hình. Định tuyến OpenClaw qua LiteLLM để có theo dõi chi phí tập trung, ghi log và khả năng linh hoạt chuyển backend mà không cần thay đổi cấu hình OpenClaw của bạn.
Tại sao dùng LiteLLM với OpenClaw?
  • Theo dõi chi phí — Xem chính xác OpenClaw chi tiêu bao nhiêu trên tất cả mô hình
  • Định tuyến mô hình — Chuyển giữa Claude, GPT-4, Gemini, Bedrock mà không cần thay đổi cấu hình
  • Khóa ảo — Tạo khóa có giới hạn chi tiêu cho OpenClaw
  • Ghi log — Log đầy đủ request/response để gỡ lỗi
  • Dự phòng — Tự động chuyển dự phòng nếu nhà cung cấp chính của bạn ngừng hoạt động

Bắt đầu nhanh

Phù hợp nhất cho: đường đi nhanh nhất để có một thiết lập LiteLLM hoạt động.
1

Chạy thiết lập ban đầu

openclaw onboard --auth-choice litellm-api-key
Để thiết lập không tương tác với một proxy từ xa, hãy truyền URL proxy rõ ràng:
openclaw onboard --non-interactive --auth-choice litellm-api-key --litellm-api-key "$LITELLM_API_KEY" --custom-base-url "https://litellm.example/v1"

Cấu hình

Biến môi trường

export LITELLM_API_KEY="sk-litellm-key"

Tệp cấu hình

{
  models: {
    providers: {
      litellm: {
        baseUrl: "http://localhost:4000",
        apiKey: "${LITELLM_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "claude-opus-4-6",
            name: "Claude Opus 4.6",
            reasoning: true,
            input: ["text", "image"],
            contextWindow: 200000,
            maxTokens: 64000,
          },
          {
            id: "gpt-4o",
            name: "GPT-4o",
            reasoning: false,
            input: ["text", "image"],
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
  agents: {
    defaults: {
      model: { primary: "litellm/claude-opus-4-6" },
    },
  },
}

Cấu hình nâng cao

Tạo hình ảnh

LiteLLM cũng có thể hỗ trợ công cụ image_generate thông qua các route tương thích OpenAI /images/generations/images/edits. Cấu hình một mô hình hình ảnh LiteLLM trong agents.defaults.imageGenerationModel:
{
  models: {
    providers: {
      litellm: {
        baseUrl: "http://localhost:4000",
        apiKey: "${LITELLM_API_KEY}",
      },
    },
  },
  agents: {
    defaults: {
      imageGenerationModel: {
        primary: "litellm/gpt-image-2",
        timeoutMs: 180_000,
      },
    },
  },
}
Các URL LiteLLM loopback như http://localhost:4000 hoạt động mà không cần ghi đè mạng riêng toàn cục. Với proxy được lưu trữ trên LAN, hãy đặt models.providers.litellm.request.allowPrivateNetwork: true vì API key sẽ được gửi đến máy chủ proxy đã cấu hình.
Tạo một khóa riêng cho OpenClaw với giới hạn chi tiêu:
curl -X POST "http://localhost:4000/key/generate" \
  -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "key_alias": "openclaw",
    "max_budget": 50.00,
    "budget_duration": "monthly"
  }'
Dùng khóa đã tạo làm LITELLM_API_KEY.
LiteLLM có thể định tuyến các yêu cầu mô hình đến những backend khác nhau. Cấu hình trong config.yaml LiteLLM của bạn:
model_list:
  - model_name: claude-opus-4-6
    litellm_params:
      model: claude-opus-4-6
      api_key: os.environ/ANTHROPIC_API_KEY

  - model_name: gpt-4o
    litellm_params:
      model: gpt-4o
      api_key: os.environ/OPENAI_API_KEY
OpenClaw tiếp tục yêu cầu claude-opus-4-6 — LiteLLM xử lý việc định tuyến.
Kiểm tra bảng điều khiển hoặc API của LiteLLM:
# Key info
curl "http://localhost:4000/key/info" \
  -H "Authorization: Bearer sk-litellm-key"

# Spend logs
curl "http://localhost:4000/spend/logs" \
  -H "Authorization: Bearer $LITELLM_MASTER_KEY"
  • LiteLLM mặc định chạy trên http://localhost:4000
  • OpenClaw kết nối qua endpoint /v1 kiểu proxy tương thích OpenAI của LiteLLM
  • Việc định hình request chỉ dành cho OpenAI gốc không áp dụng qua LiteLLM: không có service_tier, không có Responses store, không có gợi ý prompt-cache và không có định hình payload tương thích reasoning của OpenAI
  • Các header ghi nhận nguồn OpenClaw ẩn (originator, version, User-Agent) không được chèn trên các URL cơ sở LiteLLM tùy chỉnh
Để biết cấu hình nhà cung cấp chung và hành vi chuyển dự phòng, xem Nhà cung cấp mô hình.

Liên quan

Tài liệu LiteLLM

Tài liệu LiteLLM chính thức và tài liệu tham chiếu API.

Chọn mô hình

Tổng quan về tất cả nhà cung cấp, tham chiếu mô hình và hành vi chuyển dự phòng.

Cấu hình

Tài liệu tham chiếu cấu hình đầy đủ.

Chọn mô hình

Cách chọn và cấu hình mô hình.