Hugging Face(Inference)
Hugging Face Inference Providers 通过单一路由器 API 提供与 OpenAI 兼容的聊天补全服务。你可以使用一个 token 访问许多模型(DeepSeek、Llama 等)。OpenClaw 使用 与 OpenAI 兼容的端点(仅支持聊天补全);对于文生图、嵌入或语音,请直接使用 HF inference clients。- 提供商:
huggingface - 身份验证:
HUGGINGFACE_HUB_TOKEN或HF_TOKEN(具有 Make calls to Inference Providers 权限的细粒度 token) - API:与 OpenAI 兼容(
https://router.huggingface.co/v1) - 计费:单个 HF token;定价 按提供商费率执行,并提供免费层级。
快速开始
- 在 Hugging Face → Settings → Tokens 创建一个细粒度 token,并授予 Make calls to Inference Providers 权限。
- 运行新手引导,并在提供商下拉列表中选择 Hugging Face,然后在提示时输入你的 API 密钥:
- 在 Default Hugging Face model 下拉列表中,选择你想要的模型(当你拥有有效 token 时,列表会从 Inference API 加载;否则会显示内置列表)。你的选择会保存为默认模型。
- 你也可以稍后在配置中设置或更改默认模型:
非交互式示例
huggingface/deepseek-ai/DeepSeek-R1 设置为默认模型。
环境说明
如果 Gateway 网关 作为守护进程运行(launchd/systemd),请确保HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN
对该进程可用(例如放在 ~/.openclaw/.env 中,或通过
env.shellEnv 提供)。
模型发现与新手引导下拉列表
OpenClaw 通过直接调用 Inference 端点来发现模型:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN 或 $HF_TOKEN 以获取完整列表;某些端点在未验证身份时只返回子集。)响应采用 OpenAI 风格:{ "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }。
当你配置 Hugging Face API 密钥时(通过新手引导、HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN),OpenClaw 会使用这个 GET 请求来发现可用的聊天补全模型。在交互式设置期间,你输入 token 后,会看到一个 Default Hugging Face model 下拉列表,其中的内容来自该列表(如果请求失败,则使用内置目录)。在运行时(例如 Gateway 网关 启动时),只要存在密钥,OpenClaw 也会再次调用 GET https://router.huggingface.co/v1/models 来刷新目录。该列表会与内置目录合并(用于上下文窗口和成本等元数据)。如果请求失败或未设置密钥,则仅使用内置目录。
模型名称与可编辑选项
- 来自 API 的名称: 当 API 返回
name、title或display_name时,模型显示名称会从 GET /v1/models 补全;否则会根据模型 id 派生(例如deepseek-ai/DeepSeek-R1→ “DeepSeek R1”)。 - 覆盖显示名称: 你可以在配置中为每个模型设置自定义标签,这样它就会以你希望的方式显示在 CLI 和 UI 中:
-
策略后缀: OpenClaw 内置的 Hugging Face 文档和辅助工具目前将以下两个后缀视为内置策略变体:
:fastest— 最高吞吐量。:cheapest— 每输出 token 成本最低。
models.providers.huggingface.models中,或将model.primary设置为带后缀的值。你也可以在 Inference Provider settings 中设置默认提供商顺序(无后缀 = 使用该顺序)。 -
配置合并:
models.providers.huggingface.models中的现有条目(例如在models.json中)在配置合并时会被保留。因此,你在那里设置的任何自定义name、alias或模型选项都会保留。
模型 ID 和配置示例
模型引用使用huggingface/<org>/<model> 这种形式(Hub 风格 ID)。以下列表来自 GET https://router.huggingface.co/v1/models;你的目录中可能包含更多模型。
示例 ID(来自 inference 端点):
| 模型 | 引用(加上 huggingface/ 前缀) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest 或 :cheapest 附加到模型 id 后。请在 Inference Provider settings 中设置默认顺序;完整列表请参见 Inference Providers 和 GET https://router.huggingface.co/v1/models。
完整配置示例
主模型使用 DeepSeek R1,回退使用 Qwen::cheapest 和 :fastest 变体: