vLLM có thể phục vụ các mô hình mã nguồn mở (và một số mô hình tùy chỉnh) qua API HTTP tương thích OpenAI. OpenClaw kết nối với vLLM bằng APIDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
openai-completions.
OpenClaw cũng có thể tự động phát hiện các mô hình có sẵn từ vLLM khi bạn chọn tham gia bằng VLLM_API_KEY (giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực) và bạn không định nghĩa mục models.providers.vllm rõ ràng.
OpenClaw xem vllm là một nhà cung cấp cục bộ tương thích OpenAI hỗ trợ
hạch toán mức sử dụng dạng phát trực tuyến, nên số lượng token trạng thái/ngữ cảnh có thể cập nhật từ
các phản hồi stream_options.include_usage.
| Thuộc tính | Giá trị |
|---|---|
| ID nhà cung cấp | vllm |
| API | openai-completions (tương thích OpenAI) |
| Xác thực | Biến môi trường VLLM_API_KEY |
| URL cơ sở mặc định | http://127.0.0.1:8000/v1 |
Bắt đầu
Start vLLM with an OpenAI-compatible server
URL cơ sở của bạn nên cung cấp các điểm cuối
/v1 (ví dụ: /v1/models, /v1/chat/completions). vLLM thường chạy tại:Set the API key environment variable
Giá trị bất kỳ đều dùng được nếu máy chủ của bạn không bắt buộc xác thực:
Phát hiện mô hình (nhà cung cấp ngầm định)
KhiVLLM_API_KEY được đặt (hoặc có hồ sơ xác thực) và bạn không định nghĩa models.providers.vllm, OpenClaw truy vấn:
Nếu bạn đặt
models.providers.vllm rõ ràng, tự động phát hiện sẽ bị bỏ qua và bạn phải định nghĩa mô hình thủ công.Cấu hình rõ ràng (mô hình thủ công)
Dùng cấu hình rõ ràng khi:- vLLM chạy trên máy chủ hoặc cổng khác
- Bạn muốn ghim các giá trị
contextWindowhoặcmaxTokens - Máy chủ của bạn yêu cầu khóa API thật (hoặc bạn muốn kiểm soát header)
- Bạn kết nối tới một điểm cuối vLLM loopback, LAN hoặc Tailscale đáng tin cậy
Cấu hình nâng cao
Proxy-style behavior
Proxy-style behavior
vLLM được xem là backend
/v1 tương thích OpenAI kiểu proxy, không phải điểm cuối
OpenAI gốc. Điều này có nghĩa là:| Hành vi | Áp dụng? |
|---|---|
| Định hình yêu cầu OpenAI gốc | Không |
service_tier | Không gửi |
Responses store | Không gửi |
| Gợi ý prompt-cache | Không gửi |
| Định hình payload tương thích suy luận OpenAI | Không áp dụng |
| Header ghi nhận OpenClaw ẩn | Không chèn vào URL cơ sở tùy chỉnh |
Qwen thinking controls
Qwen thinking controls
Với các mô hình Qwen được phục vụ qua vLLM, đặt
Các mức suy nghĩ không phải
params.qwenThinkingFormat: "chat-template" trên mục mô hình khi
máy chủ kỳ vọng kwargs mẫu chat của Qwen. OpenClaw ánh xạ /think off thành:off gửi enable_thinking: true. Nếu điểm cuối của bạn
kỳ vọng các cờ cấp cao kiểu DashScope thay vào đó, hãy dùng
params.qwenThinkingFormat: "top-level" để gửi enable_thinking ở gốc
yêu cầu. Snake-case params.qwen_thinking_format cũng được chấp nhận.Nemotron 3 thinking controls
Nemotron 3 thinking controls
vLLM/Nemotron 3 có thể dùng kwargs mẫu chat để kiểm soát việc suy luận được
trả về dưới dạng suy luận ẩn hay văn bản câu trả lời hiển thị. Khi một phiên OpenClaw
dùng Để tùy chỉnh các giá trị này, đặt
vllm/nemotron-3-* với suy nghĩ tắt, Plugin vLLM đi kèm sẽ gửi:chat_template_kwargs dưới params của mô hình.
Nếu bạn cũng đặt params.extra_body.chat_template_kwargs, giá trị đó có
mức ưu tiên cuối cùng vì extra_body là phần ghi đè thân yêu cầu cuối cùng.Qwen tool calls appear as text
Qwen tool calls appear as text
Trước tiên hãy đảm bảo vLLM đã được khởi động với bộ phân tích lệnh gọi công cụ và mẫu chat
phù hợp cho mô hình. Ví dụ, vLLM ghi tài liệu Thay Bạn có thể áp dụng cùng ghi đè từ CLI:Đây là một giải pháp tương thích cần chọn tham gia. Nó khiến mọi lượt mô hình có
công cụ đều yêu cầu một lệnh gọi công cụ, vì vậy chỉ dùng cho một mục mô hình cục bộ chuyên dụng
khi hành vi đó chấp nhận được. Không dùng nó làm mặc định toàn cục cho tất cả
mô hình vLLM, và không dùng proxy chuyển đổi mù quáng văn bản
trợ lý bất kỳ thành lệnh gọi công cụ có thể thực thi.
hermes cho các mô hình Qwen2.5
và qwen3_xml cho các mô hình Qwen3-Coder.Triệu chứng:- Skills hoặc công cụ không bao giờ chạy
- trợ lý in JSON/XML thô như
{"name":"read","arguments":...} - vLLM trả về một mảng
tool_callstrống khi OpenClaw gửitool_choice: "auto"
tool_choice: "required". Với các mục mô hình đó, hãy buộc
trường yêu cầu tương thích OpenAI bằng params.extra_body:Qwen-Qwen2.5-Coder-32B-Instruct bằng id chính xác được trả về bởi:Custom base URL
Custom base URL
Nếu máy chủ vLLM của bạn chạy trên máy chủ hoặc cổng không mặc định, đặt
baseUrl trong cấu hình nhà cung cấp rõ ràng:Khắc phục sự cố
Slow first response or remote server timeout
Slow first response or remote server timeout
Với các mô hình cục bộ lớn, máy chủ LAN từ xa, hoặc liên kết tailnet, hãy đặt
thời gian chờ yêu cầu theo phạm vi nhà cung cấp:
timeoutSeconds chỉ áp dụng cho các yêu cầu HTTP mô hình vLLM, bao gồm
thiết lập kết nối, header phản hồi, phát trực tuyến thân phản hồi và tổng
thao tác hủy guarded-fetch. Nên dùng cách này trước khi tăng
agents.defaults.timeoutSeconds, vốn kiểm soát toàn bộ lần chạy tác tử.Server not reachable
Server not reachable
Kiểm tra máy chủ vLLM đang chạy và có thể truy cập:Nếu bạn thấy lỗi kết nối, hãy xác minh máy chủ, cổng, và vLLM đã khởi động với chế độ máy chủ tương thích OpenAI.
Với các điểm cuối loopback, LAN hoặc Tailscale rõ ràng, cũng đặt
models.providers.vllm.request.allowPrivateNetwork: true; các yêu cầu của nhà cung cấp
mặc định chặn URL mạng riêng trừ khi nhà cung cấp được
tin cậy rõ ràng.Auth errors on requests
Auth errors on requests
Nếu yêu cầu thất bại với lỗi xác thực, hãy đặt
VLLM_API_KEY thật khớp với cấu hình máy chủ của bạn, hoặc cấu hình nhà cung cấp rõ ràng dưới models.providers.vllm.No models discovered
No models discovered
Tự động phát hiện yêu cầu
VLLM_API_KEY được đặt và không có mục cấu hình models.providers.vllm rõ ràng. Nếu bạn đã định nghĩa nhà cung cấp thủ công, OpenClaw bỏ qua phát hiện và chỉ dùng các mô hình bạn đã khai báo.Tools render as raw text
Tools render as raw text
Nếu một mô hình Qwen in cú pháp công cụ JSON/XML thay vì thực thi một skill,
hãy kiểm tra hướng dẫn Qwen trong phần Cấu hình nâng cao ở trên. Cách sửa thường là:
- khởi động vLLM với parser/template chính xác cho mô hình đó
- xác nhận id mô hình chính xác bằng
openclaw models list --provider vllm - thêm ghi đè
params.extra_body.tool_choice: "required"riêng cho từng mô hình chỉ khitool_choice: "auto"vẫn trả về lệnh gọi công cụ rỗng hoặc chỉ dạng văn bản
Liên quan
Model selection
Chọn nhà cung cấp, tham chiếu mô hình và hành vi chuyển đổi dự phòng.
OpenAI
Nhà cung cấp OpenAI gốc và hành vi tuyến tương thích OpenAI.
OAuth and auth
Chi tiết xác thực và quy tắc tái sử dụng thông tin xác thực.
Troubleshooting
Các sự cố thường gặp và cách giải quyết.