Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

LiteLLM คือ Gateway LLM แบบโอเพนซอร์สที่มี API แบบรวมศูนย์สำหรับผู้ให้บริการโมเดลมากกว่า 100 ราย เชื่อม OpenClaw ผ่าน LiteLLM เพื่อให้ได้การติดตามค่าใช้จ่าย การบันทึก log และความยืดหยุ่นในการสลับ backend โดยไม่ต้องเปลี่ยน config ของ OpenClaw
ทำไมต้องใช้ LiteLLM กับ OpenClaw?
  • การติดตามค่าใช้จ่าย — ดูได้อย่างชัดเจนว่า OpenClaw ใช้จ่ายกับโมเดลทั้งหมดเท่าไร
  • การกำหนดเส้นทางโมเดล — สลับระหว่าง Claude, GPT-4, Gemini, Bedrock โดยไม่ต้องเปลี่ยน config
  • คีย์เสมือน — สร้างคีย์พร้อมขีดจำกัดการใช้จ่ายสำหรับ OpenClaw
  • การบันทึก log — log คำขอ/คำตอบแบบเต็มสำหรับการ debug
  • Fallback — failover อัตโนมัติหากผู้ให้บริการหลักของคุณล่ม

เริ่มต้นอย่างรวดเร็ว

การกำหนดค่า

ตัวแปรสภาพแวดล้อม

export LITELLM_API_KEY="sk-litellm-key"

ไฟล์ config

{
  models: {
    providers: {
      litellm: {
        baseUrl: "http://localhost:4000",
        apiKey: "${LITELLM_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "claude-opus-4-6",
            name: "Claude Opus 4.6",
            reasoning: true,
            input: ["text", "image"],
            contextWindow: 200000,
            maxTokens: 64000,
          },
          {
            id: "gpt-4o",
            name: "GPT-4o",
            reasoning: false,
            input: ["text", "image"],
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
  agents: {
    defaults: {
      model: { primary: "litellm/claude-opus-4-6" },
    },
  },
}

การกำหนดค่าขั้นสูง

การสร้างภาพ

LiteLLM ยังสามารถรองรับเครื่องมือ image_generate ผ่านเส้นทางที่เข้ากันได้กับ OpenAI อย่าง /images/generations และ /images/edits กำหนดค่าโมเดลภาพของ LiteLLM ภายใต้ agents.defaults.imageGenerationModel:
{
  models: {
    providers: {
      litellm: {
        baseUrl: "http://localhost:4000",
        apiKey: "${LITELLM_API_KEY}",
      },
    },
  },
  agents: {
    defaults: {
      imageGenerationModel: {
        primary: "litellm/gpt-image-2",
        timeoutMs: 180_000,
      },
    },
  },
}
URL ของ LiteLLM แบบ loopback เช่น http://localhost:4000 ใช้งานได้โดยไม่ต้องมีการแทนที่ เครือข่ายส่วนตัวแบบ global สำหรับ proxy ที่โฮสต์บน LAN ให้ตั้งค่า models.providers.litellm.request.allowPrivateNetwork: true เพราะ API key จะถูกส่งไปยังโฮสต์ proxy ที่กำหนดค่าไว้
สร้างคีย์เฉพาะสำหรับ OpenClaw พร้อมขีดจำกัดการใช้จ่าย:
curl -X POST "http://localhost:4000/key/generate" \
  -H "Authorization: Bearer $LITELLM_MASTER_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "key_alias": "openclaw",
    "max_budget": 50.00,
    "budget_duration": "monthly"
  }'
ใช้คีย์ที่สร้างขึ้นเป็น LITELLM_API_KEY
LiteLLM สามารถกำหนดเส้นทางคำขอโมเดลไปยัง backend ต่าง ๆ ได้ กำหนดค่าใน config.yaml ของ LiteLLM:
model_list:
  - model_name: claude-opus-4-6
    litellm_params:
      model: claude-opus-4-6
      api_key: os.environ/ANTHROPIC_API_KEY

  - model_name: gpt-4o
    litellm_params:
      model: gpt-4o
      api_key: os.environ/OPENAI_API_KEY
OpenClaw ยังคงขอ claude-opus-4-6 — LiteLLM จะจัดการการกำหนดเส้นทางให้
ตรวจสอบ dashboard หรือ API ของ LiteLLM:
# Key info
curl "http://localhost:4000/key/info" \
  -H "Authorization: Bearer sk-litellm-key"

# Spend logs
curl "http://localhost:4000/spend/logs" \
  -H "Authorization: Bearer $LITELLM_MASTER_KEY"
  • LiteLLM ทำงานบน http://localhost:4000 ตามค่าเริ่มต้น
  • OpenClaw เชื่อมต่อผ่าน endpoint /v1 ของ LiteLLM ที่เข้ากันได้กับ OpenAI ในรูปแบบ proxy
  • การปรับรูปแบบคำขอสำหรับ OpenAI แบบ native เท่านั้นจะไม่มีผลผ่าน LiteLLM: ไม่มี service_tier, ไม่มี Responses store, ไม่มี hint ของ prompt-cache และไม่มี การปรับ payload ให้เข้ากันได้กับ reasoning ของ OpenAI
  • header แสดงที่มาของ OpenClaw แบบซ่อน (originator, version, User-Agent) จะไม่ถูกฉีดเข้าไปใน URL ฐานของ LiteLLM แบบกำหนดเอง
สำหรับการกำหนดค่าผู้ให้บริการทั่วไปและพฤติกรรม failover โปรดดู ผู้ให้บริการโมเดล

ที่เกี่ยวข้อง

LiteLLM Docs

เอกสารทางการของ LiteLLM และข้อมูลอ้างอิง API

Model selection

ภาพรวมของผู้ให้บริการทั้งหมด การอ้างอิงโมเดล และพฤติกรรม failover

Configuration

ข้อมูลอ้างอิง config แบบเต็ม

Model selection

วิธีเลือกและกำหนดค่าโมเดล