Hugging Face Inference Providers 透過單一路由器 API 提供與 OpenAI 相容的聊天補全。你只需一個權杖,就能存取許多模型(DeepSeek、Llama 等)。OpenClaw 使用與 OpenAI 相容的端點(僅限聊天補全);若要使用文字轉圖片、嵌入或語音,請直接使用 HF 推論用戶端。Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- 提供者:
huggingface - 驗證:
HUGGINGFACE_HUB_TOKEN或HF_TOKEN(具備 Make calls to Inference Providers 的細粒度權杖) - API:與 OpenAI 相容(
https://router.huggingface.co/v1) - 計費:單一 HF 權杖;定價 依照提供者費率,並提供免費級別。
開始使用
建立細粒度權杖
前往 Hugging Face Settings Tokens,建立新的細粒度權杖。
選取預設模型
在 預設 Hugging Face 模型下拉選單中,挑選你想要的模型。當你有有效權杖時,清單會從 Inference API 載入;否則會顯示內建清單。你的選擇會儲存為預設模型。你也可以稍後在設定中設定或變更預設模型:
非互動式設定
huggingface/deepseek-ai/DeepSeek-R1 設為預設模型。
模型 ID
模型參照使用huggingface/<org>/<model> 形式(Hub 風格 ID)。下方清單來自 GET https://router.huggingface.co/v1/models;你的目錄可能包含更多項目。
| 模型 | 參照(加上 huggingface/ 前綴) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
進階設定
模型探索與上手下拉選單
模型探索與上手下拉選單
模型名稱、別名和策略尾碼
模型名稱、別名和策略尾碼
- 來自 API 的名稱: 當 API 回傳
name、title或display_name時,模型顯示名稱會從 GET /v1/models 補全;否則會從模型 ID 推導(例如deepseek-ai/DeepSeek-R1會變成「DeepSeek R1」)。 - 覆寫顯示名稱: 你可以在設定中為每個模型設定自訂標籤,讓它在 CLI 和 UI 中以你想要的方式顯示:
-
策略尾碼: OpenClaw 內附的 Hugging Face 文件和輔助工具目前將這兩個尾碼視為內建策略變體:
:fastest— 最高吞吐量。:cheapest— 每個輸出權杖的最低成本。
models.providers.huggingface.models中的獨立項目,或使用帶有尾碼的model.primary。你也可以在 Inference Provider 設定中設定預設提供者順序(無尾碼 = 使用該順序)。 -
設定合併: 合併設定時,會保留
models.providers.huggingface.models中現有的項目(例如models.json中的項目)。因此你在那裡設定的任何自訂name、alias或模型選項都會被保留。
環境與守護程式設定
環境與守護程式設定
如果 Gateway 以守護程式執行(launchd/systemd),請確保
HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN 可供該程序使用(例如在 ~/.openclaw/.env 中,或透過 env.shellEnv)。OpenClaw 同時接受
HUGGINGFACE_HUB_TOKEN 和 HF_TOKEN 作為環境變數別名。任一個都可使用;如果兩者都已設定,HUGGINGFACE_HUB_TOKEN 優先。設定:DeepSeek R1 搭配 Qwen 後備
設定:DeepSeek R1 搭配 Qwen 後備
設定:Qwen 搭配 cheapest 與 fastest 變體
設定:Qwen 搭配 cheapest 與 fastest 變體
設定:DeepSeek + Llama + GPT-OSS 搭配別名
設定:DeepSeek + Llama + GPT-OSS 搭配別名
設定:多個 Qwen 和 DeepSeek 搭配策略尾碼
設定:多個 Qwen 和 DeepSeek 搭配策略尾碼
相關
模型選擇
所有提供者、模型參照和容錯移轉行為的概觀。
模型選擇
如何選擇和設定模型。
Inference Providers 文件
Hugging Face Inference Providers 官方文件。
設定
完整設定參考。