Chuyển đến nội dung chính

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

vLLM có thể phục vụ các mô hình mã nguồn mở (và một số mô hình tùy chỉnh) qua API HTTP tương thích OpenAI. OpenClaw kết nối với vLLM bằng API openai-completions. OpenClaw cũng có thể tự động phát hiện các mô hình có sẵn từ vLLM khi bạn chọn tham gia bằng VLLM_API_KEY (giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực) và bạn không định nghĩa mục models.providers.vllm rõ ràng. OpenClaw xem vllm là một nhà cung cấp cục bộ tương thích OpenAI hỗ trợ hạch toán mức sử dụng dạng phát trực tuyến, nên số lượng token trạng thái/ngữ cảnh có thể cập nhật từ các phản hồi stream_options.include_usage.
Thuộc tínhGiá trị
ID nhà cung cấpvllm
APIopenai-completions (tương thích OpenAI)
Xác thựcBiến môi trường VLLM_API_KEY
URL cơ sở mặc địnhhttp://127.0.0.1:8000/v1

Bắt đầu

1

Start vLLM with an OpenAI-compatible server

URL cơ sở của bạn nên cung cấp các điểm cuối /v1 (ví dụ: /v1/models, /v1/chat/completions). vLLM thường chạy tại:
http://127.0.0.1:8000/v1
2

Set the API key environment variable

Giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực:
export VLLM_API_KEY="vllm-local"
3

Select a model

Thay bằng một trong các ID mô hình vLLM của bạn:
{
  agents: {
    defaults: {
      model: { primary: "vllm/your-model-id" },
    },
  },
}
4

Verify the model is available

openclaw models list --provider vllm

Phát hiện mô hình (nhà cung cấp ngầm định)

Khi VLLM_API_KEY được đặt (hoặc có hồ sơ xác thực) và bạn không định nghĩa models.providers.vllm, OpenClaw truy vấn:
GET http://127.0.0.1:8000/v1/models
và chuyển đổi các ID trả về thành các mục mô hình.
Nếu bạn đặt models.providers.vllm rõ ràng, tự động phát hiện sẽ bị bỏ qua và bạn phải định nghĩa mô hình thủ công.

Cấu hình rõ ràng (mô hình thủ công)

Dùng cấu hình rõ ràng khi:
  • vLLM chạy trên máy chủ hoặc cổng khác
  • Bạn muốn ghim các giá trị contextWindow hoặc maxTokens
  • Máy chủ của bạn yêu cầu khóa API thật (hoặc bạn muốn kiểm soát header)
  • Bạn kết nối tới một điểm cuối vLLM loopback, LAN hoặc Tailscale đáng tin cậy
{
  models: {
    providers: {
      vllm: {
        baseUrl: "http://127.0.0.1:8000/v1",
        apiKey: "${VLLM_API_KEY}",
        api: "openai-completions",
        request: { allowPrivateNetwork: true },
        timeoutSeconds: 300, // Optional: extend connect/header/body/request timeout for slow local models
        models: [
          {
            id: "your-model-id",
            name: "Local vLLM Model",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Cấu hình nâng cao

vLLM được xem là backend /v1 tương thích OpenAI kiểu proxy, không phải điểm cuối OpenAI gốc. Điều này có nghĩa là:
Hành viÁp dụng?
Định hình yêu cầu OpenAI gốcKhông
service_tierKhông gửi
Responses storeKhông gửi
Gợi ý prompt-cacheKhông gửi
Định hình payload tương thích suy luận OpenAIKhông áp dụng
Header ghi nhận OpenClaw ẩnKhông chèn vào URL cơ sở tùy chỉnh
Với các mô hình Qwen được phục vụ qua vLLM, đặt params.qwenThinkingFormat: "chat-template" trên mục mô hình khi máy chủ kỳ vọng kwargs mẫu chat của Qwen. OpenClaw ánh xạ /think off thành:
{
  "chat_template_kwargs": {
    "enable_thinking": false,
    "preserve_thinking": true
  }
}
Các mức suy nghĩ không phải off gửi enable_thinking: true. Nếu điểm cuối của bạn kỳ vọng các cờ cấp cao kiểu DashScope thay vào đó, hãy dùng params.qwenThinkingFormat: "top-level" để gửi enable_thinking ở gốc yêu cầu. Snake-case params.qwen_thinking_format cũng được chấp nhận.
vLLM/Nemotron 3 có thể dùng kwargs mẫu chat để kiểm soát việc suy luận được trả về dưới dạng suy luận ẩn hay văn bản câu trả lời hiển thị. Khi một phiên OpenClaw dùng vllm/nemotron-3-* với suy nghĩ tắt, Plugin vLLM đi kèm sẽ gửi:
{
  "chat_template_kwargs": {
    "enable_thinking": false,
    "force_nonempty_content": true
  }
}
Để tùy chỉnh các giá trị này, đặt chat_template_kwargs dưới params của mô hình. Nếu bạn cũng đặt params.extra_body.chat_template_kwargs, giá trị đó có mức ưu tiên cuối cùng vì extra_body là phần ghi đè thân yêu cầu cuối cùng.
{
  agents: {
    defaults: {
      models: {
        "vllm/nemotron-3-super": {
          params: {
            chat_template_kwargs: {
              enable_thinking: false,
              force_nonempty_content: true,
            },
          },
        },
      },
    },
  },
}
Trước tiên hãy đảm bảo vLLM đã được khởi động với bộ phân tích lệnh gọi công cụ và mẫu chat phù hợp cho mô hình. Ví dụ, vLLM ghi tài liệu hermes cho các mô hình Qwen2.5 và qwen3_xml cho các mô hình Qwen3-Coder.Triệu chứng:
  • Skills hoặc công cụ không bao giờ chạy
  • trợ lý in JSON/XML thô như {"name":"read","arguments":...}
  • vLLM trả về một mảng tool_calls trống khi OpenClaw gửi tool_choice: "auto"
Một số tổ hợp Qwen/vLLM chỉ trả về lệnh gọi công cụ có cấu trúc khi yêu cầu dùng tool_choice: "required". Với các mục mô hình đó, hãy buộc trường yêu cầu tương thích OpenAI bằng params.extra_body:
{
  agents: {
    defaults: {
      models: {
        "vllm/Qwen-Qwen2.5-Coder-32B-Instruct": {
          params: {
            extra_body: {
              tool_choice: "required",
            },
          },
        },
      },
    },
  },
}
Thay Qwen-Qwen2.5-Coder-32B-Instruct bằng id chính xác được trả về bởi:
openclaw models list --provider vllm
Bạn có thể áp dụng cùng ghi đè từ CLI:
openclaw config set agents.defaults.models '{"vllm/Qwen-Qwen2.5-Coder-32B-Instruct":{"params":{"extra_body":{"tool_choice":"required"}}}}' --strict-json --merge
Đây là một giải pháp tương thích cần chọn tham gia. Nó khiến mọi lượt mô hình có công cụ đều yêu cầu một lệnh gọi công cụ, vì vậy chỉ dùng cho một mục mô hình cục bộ chuyên dụng khi hành vi đó chấp nhận được. Không dùng nó làm mặc định toàn cục cho tất cả mô hình vLLM, và không dùng proxy chuyển đổi mù quáng văn bản trợ lý bất kỳ thành lệnh gọi công cụ có thể thực thi.
Nếu máy chủ vLLM của bạn chạy trên máy chủ hoặc cổng không mặc định, đặt baseUrl trong cấu hình nhà cung cấp rõ ràng:
{
  models: {
    providers: {
      vllm: {
        baseUrl: "http://192.168.1.50:9000/v1",
        apiKey: "${VLLM_API_KEY}",
        api: "openai-completions",
        request: { allowPrivateNetwork: true },
        timeoutSeconds: 300,
        models: [
          {
            id: "my-custom-model",
            name: "Remote vLLM Model",
            reasoning: false,
            input: ["text"],
            contextWindow: 64000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

Khắc phục sự cố

Với các mô hình cục bộ lớn, máy chủ LAN từ xa, hoặc liên kết tailnet, hãy đặt thời gian chờ yêu cầu theo phạm vi nhà cung cấp:
{
  models: {
    providers: {
      vllm: {
        baseUrl: "http://192.168.1.50:8000/v1",
        apiKey: "${VLLM_API_KEY}",
        api: "openai-completions",
        request: { allowPrivateNetwork: true },
        timeoutSeconds: 300,
        models: [{ id: "your-model-id", name: "Local vLLM Model" }],
      },
    },
  },
}
timeoutSeconds chỉ áp dụng cho các yêu cầu HTTP mô hình vLLM, bao gồm thiết lập kết nối, header phản hồi, phát trực tuyến thân phản hồi và tổng thao tác hủy guarded-fetch. Nên dùng cách này trước khi tăng agents.defaults.timeoutSeconds, vốn kiểm soát toàn bộ lần chạy tác tử.
Kiểm tra máy chủ vLLM đang chạy và có thể truy cập:
curl http://127.0.0.1:8000/v1/models
Nếu bạn thấy lỗi kết nối, hãy xác minh máy chủ, cổng, và vLLM đã khởi động với chế độ máy chủ tương thích OpenAI. Với các điểm cuối loopback, LAN hoặc Tailscale rõ ràng, cũng đặt models.providers.vllm.request.allowPrivateNetwork: true; các yêu cầu của nhà cung cấp mặc định chặn URL mạng riêng trừ khi nhà cung cấp được tin cậy rõ ràng.
Nếu yêu cầu thất bại với lỗi xác thực, hãy đặt VLLM_API_KEY thật khớp với cấu hình máy chủ của bạn, hoặc cấu hình nhà cung cấp rõ ràng dưới models.providers.vllm.
Nếu máy chủ vLLM của bạn không bắt buộc xác thực, bất kỳ giá trị không rỗng nào cho VLLM_API_KEY đều dùng được làm tín hiệu chọn tham gia cho OpenClaw.
Tự động phát hiện yêu cầu VLLM_API_KEY được đặt không có mục cấu hình models.providers.vllm rõ ràng. Nếu bạn đã định nghĩa nhà cung cấp thủ công, OpenClaw bỏ qua phát hiện và chỉ dùng các mô hình bạn đã khai báo.
Nếu một mô hình Qwen in cú pháp công cụ JSON/XML thay vì thực thi một skill, hãy kiểm tra hướng dẫn Qwen trong phần Cấu hình nâng cao ở trên. Cách sửa thường là:
  • khởi động vLLM với parser/template chính xác cho mô hình đó
  • xác nhận id mô hình chính xác bằng openclaw models list --provider vllm
  • thêm ghi đè params.extra_body.tool_choice: "required" riêng cho từng mô hình chỉ khi tool_choice: "auto" vẫn trả về lệnh gọi công cụ rỗng hoặc chỉ dạng văn bản

Liên quan

Model selection

Chọn nhà cung cấp, tham chiếu mô hình và hành vi chuyển đổi dự phòng.

OpenAI

Nhà cung cấp OpenAI gốc và hành vi tuyến tương thích OpenAI.

OAuth and auth

Chi tiết xác thực và quy tắc tái sử dụng thông tin xác thực.

Troubleshooting

Các sự cố thường gặp và cách giải quyết.