Nhà cung cấp suy luận Hugging Face cung cấp chat completions tương thích OpenAI thông qua một router API duy nhất. Bạn có quyền truy cập vào nhiều mô hình (DeepSeek, Llama và nhiều mô hình khác) chỉ với một token. OpenClaw dùng endpoint tương thích OpenAI (chỉ chat completions); với text-to-image, embeddings hoặc speech, hãy dùng trực tiếp HF inference clients.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- Nhà cung cấp:
huggingface - Xác thực:
HUGGINGFACE_HUB_TOKENhoặcHF_TOKEN(token chi tiết có quyền Make calls to Inference Providers) - API: tương thích OpenAI (
https://router.huggingface.co/v1) - Thanh toán: Một token HF; bảng giá theo mức giá của nhà cung cấp, có gói miễn phí.
Bắt đầu
Tạo token chi tiết
Truy cập Hugging Face Settings Tokens và tạo một token chi tiết mới.
Chạy onboarding
Chọn Hugging Face trong menu thả xuống nhà cung cấp, rồi nhập khóa API của bạn khi được nhắc:
Chọn mô hình mặc định
Trong menu thả xuống Default Hugging Face model, chọn mô hình bạn muốn. Danh sách được tải từ Inference API khi bạn có token hợp lệ; nếu không, danh sách tích hợp sẵn sẽ được hiển thị. Lựa chọn của bạn được lưu làm mô hình mặc định.Bạn cũng có thể đặt hoặc thay đổi mô hình mặc định sau trong cấu hình:
Thiết lập không tương tác
huggingface/deepseek-ai/DeepSeek-R1 làm mô hình mặc định.
ID mô hình
Tham chiếu mô hình dùng dạnghuggingface/<org>/<model> (ID kiểu Hub). Danh sách dưới đây lấy từ GET https://router.huggingface.co/v1/models; danh mục của bạn có thể có thêm mô hình.
| Mô hình | Tham chiếu (thêm tiền tố huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Cấu hình nâng cao
Khám phá mô hình và menu thả xuống onboarding
Khám phá mô hình và menu thả xuống onboarding
Tên mô hình, alias và hậu tố chính sách
Tên mô hình, alias và hậu tố chính sách
- Tên từ API: Tên hiển thị của mô hình được bổ sung từ GET /v1/models khi API trả về
name,titlehoặcdisplay_name; nếu không, tên được suy ra từ ID mô hình (ví dụdeepseek-ai/DeepSeek-R1trở thành “DeepSeek R1”). - Ghi đè tên hiển thị: Bạn có thể đặt nhãn tùy chỉnh cho từng mô hình trong cấu hình để nó hiển thị theo cách bạn muốn trong CLI và UI:
-
Hậu tố chính sách: Tài liệu và helper Hugging Face đi kèm OpenClaw hiện coi hai hậu tố này là các biến thể chính sách tích hợp sẵn:
:fastest— thông lượng cao nhất.:cheapest— chi phí thấp nhất cho mỗi token đầu ra.
models.providers.huggingface.modelshoặc đặtmodel.primarykèm hậu tố. Bạn cũng có thể đặt thứ tự nhà cung cấp mặc định trong cài đặt Inference Provider (không có hậu tố = dùng thứ tự đó). -
Hợp nhất cấu hình: Các mục hiện có trong
models.providers.huggingface.models(ví dụ trongmodels.json) được giữ lại khi cấu hình được hợp nhất. Vì vậy, mọiname,aliashoặc tùy chọn mô hình tùy chỉnh bạn đặt ở đó đều được giữ nguyên.
Thiết lập môi trường và daemon
Thiết lập môi trường và daemon
Nếu Gateway chạy dưới dạng daemon (launchd/systemd), hãy đảm bảo
HUGGINGFACE_HUB_TOKEN hoặc HF_TOKEN khả dụng cho tiến trình đó (ví dụ trong ~/.openclaw/.env hoặc qua env.shellEnv).OpenClaw chấp nhận cả
HUGGINGFACE_HUB_TOKEN và HF_TOKEN làm alias biến môi trường. Cả hai đều hoạt động; nếu cả hai được đặt, HUGGINGFACE_HUB_TOKEN được ưu tiên.Cấu hình: DeepSeek R1 với Qwen dự phòng
Cấu hình: DeepSeek R1 với Qwen dự phòng
Cấu hình: Qwen với các biến thể cheapest và fastest
Cấu hình: Qwen với các biến thể cheapest và fastest
Cấu hình: DeepSeek + Llama + GPT-OSS với alias
Cấu hình: DeepSeek + Llama + GPT-OSS với alias
Cấu hình: Nhiều Qwen và DeepSeek với hậu tố chính sách
Cấu hình: Nhiều Qwen và DeepSeek với hậu tố chính sách
Liên quan
Lựa chọn mô hình
Tổng quan về tất cả nhà cung cấp, tham chiếu mô hình và hành vi failover.
Lựa chọn mô hình
Cách chọn và cấu hình mô hình.
Tài liệu Inference Providers
Tài liệu chính thức về Hugging Face Inference Providers.
Cấu hình
Tham chiếu cấu hình đầy đủ.