跳轉到主要內容

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Hugging Face Inference Providers 透過單一路由器 API 提供與 OpenAI 相容的聊天補全。你只需一個權杖,就能存取許多模型(DeepSeek、Llama 等)。OpenClaw 使用與 OpenAI 相容的端點(僅限聊天補全);若要使用文字轉圖片、嵌入或語音,請直接使用 HF 推論用戶端
  • 提供者:huggingface
  • 驗證:HUGGINGFACE_HUB_TOKENHF_TOKEN(具備 Make calls to Inference Providers 的細粒度權杖)
  • API:與 OpenAI 相容(https://router.huggingface.co/v1
  • 計費:單一 HF 權杖;定價 依照提供者費率,並提供免費級別。

開始使用

1

建立細粒度權杖

前往 Hugging Face Settings Tokens,建立新的細粒度權杖。
權杖必須啟用 Make calls to Inference Providers 權限,否則 API 請求會被拒絕。
2

執行上手流程

在提供者下拉選單中選擇 Hugging Face,然後在提示時輸入你的 API 金鑰:
openclaw onboard --auth-choice huggingface-api-key
3

選取預設模型

預設 Hugging Face 模型下拉選單中,挑選你想要的模型。當你有有效權杖時,清單會從 Inference API 載入;否則會顯示內建清單。你的選擇會儲存為預設模型。你也可以稍後在設定中設定或變更預設模型:
{
  agents: {
    defaults: {
      model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
    },
  },
}
4

確認模型可用

openclaw models list --provider huggingface

非互動式設定

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice huggingface-api-key \
  --huggingface-api-key "$HF_TOKEN"
這會將 huggingface/deepseek-ai/DeepSeek-R1 設為預設模型。

模型 ID

模型參照使用 huggingface/<org>/<model> 形式(Hub 風格 ID)。下方清單來自 GET https://router.huggingface.co/v1/models;你的目錄可能包含更多項目。
模型參照(加上 huggingface/ 前綴)
DeepSeek R1deepseek-ai/DeepSeek-R1
DeepSeek V3.2deepseek-ai/DeepSeek-V3.2
Qwen3 8BQwen/Qwen3-8B
Qwen2.5 7B InstructQwen/Qwen2.5-7B-Instruct
Qwen3 32BQwen/Qwen3-32B
Llama 3.3 70B Instructmeta-llama/Llama-3.3-70B-Instruct
Llama 3.1 8B Instructmeta-llama/Llama-3.1-8B-Instruct
GPT-OSS 120Bopenai/gpt-oss-120b
GLM 4.7zai-org/GLM-4.7
Kimi K2.5moonshotai/Kimi-K2.5
你可以在任何模型 ID 後附加 :fastest:cheapest。請在 Inference Provider 設定中設定你的預設順序;完整清單請參閱 Inference ProvidersGET https://router.huggingface.co/v1/models

進階設定

OpenClaw 會直接呼叫 Inference 端點來探索模型:
GET https://router.huggingface.co/v1/models
(選用:傳送 Authorization: Bearer $HUGGINGFACE_HUB_TOKEN$HF_TOKEN 以取得完整清單;某些端點在未驗證時會回傳子集。)回應為 OpenAI 風格的 { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }當你設定 Hugging Face API 金鑰(透過上手流程、HUGGINGFACE_HUB_TOKENHF_TOKEN)時,OpenClaw 會使用這個 GET 來探索可用的聊天補全模型。在互動式設定期間,輸入權杖後,你會看到一個預設 Hugging Face 模型下拉選單,內容來自該清單(或在請求失敗時使用內建目錄)。執行階段(例如 Gateway 啟動)若存在金鑰,OpenClaw 會再次呼叫 GET https://router.huggingface.co/v1/models 來重新整理目錄。清單會與內建目錄合併(用於內容視窗和成本等中繼資料)。如果請求失敗或未設定金鑰,則只會使用內建目錄。
  • 來自 API 的名稱: 當 API 回傳 nametitledisplay_name 時,模型顯示名稱會從 GET /v1/models 補全;否則會從模型 ID 推導(例如 deepseek-ai/DeepSeek-R1 會變成「DeepSeek R1」)。
  • 覆寫顯示名稱: 你可以在設定中為每個模型設定自訂標籤,讓它在 CLI 和 UI 中以你想要的方式顯示:
{
  agents: {
    defaults: {
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (fast)" },
        "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (cheap)" },
      },
    },
  },
}
  • 策略尾碼: OpenClaw 內附的 Hugging Face 文件和輔助工具目前將這兩個尾碼視為內建策略變體:
    • :fastest — 最高吞吐量。
    • :cheapest — 每個輸出權杖的最低成本。
    你可以將這些新增為 models.providers.huggingface.models 中的獨立項目,或使用帶有尾碼的 model.primary。你也可以在 Inference Provider 設定中設定預設提供者順序(無尾碼 = 使用該順序)。
  • 設定合併: 合併設定時,會保留 models.providers.huggingface.models 中現有的項目(例如 models.json 中的項目)。因此你在那裡設定的任何自訂 namealias 或模型選項都會被保留。
如果 Gateway 以守護程式執行(launchd/systemd),請確保 HUGGINGFACE_HUB_TOKENHF_TOKEN 可供該程序使用(例如在 ~/.openclaw/.env 中,或透過 env.shellEnv)。
OpenClaw 同時接受 HUGGINGFACE_HUB_TOKENHF_TOKEN 作為環境變數別名。任一個都可使用;如果兩者都已設定,HUGGINGFACE_HUB_TOKEN 優先。
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-R1",
        fallbacks: ["huggingface/Qwen/Qwen3-8B"],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen3-8B" },
      models: {
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
        "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (cheapest)" },
        "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (fastest)" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
        fallbacks: [
          "huggingface/meta-llama/Llama-3.3-70B-Instruct",
          "huggingface/openai/gpt-oss-120b",
        ],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
        "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
        "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
      models: {
        "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
        "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (cheap)" },
        "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (fast)" },
        "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
      },
    },
  },
}

相關

模型選擇

所有提供者、模型參照和容錯移轉行為的概觀。

模型選擇

如何選擇和設定模型。

Inference Providers 文件

Hugging Face Inference Providers 官方文件。

設定

完整設定參考。