Hugging Face (Inference)
Hugging Face Inference Providers пропонують сумісні з OpenAI chat completions через єдиний router API. Ви отримуєте доступ до багатьох моделей (DeepSeek, Llama та інших) з одним токеном. OpenClaw використовує сумісний з OpenAI endpoint (лише chat completions); для text-to-image, embeddings або speech використовуйте клієнти HF inference напряму.- Провайдер:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENабоHF_TOKEN(fine-grained token з дозволом Make calls to Inference Providers) - API: сумісний з OpenAI (
https://router.huggingface.co/v1) - Оплата: один токен HF; тарифи відповідають тарифам провайдерів із безкоштовним рівнем.
Швидкий початок
- Створіть fine-grained token у Hugging Face → Settings → Tokens з дозволом Make calls to Inference Providers.
- Запустіть onboarding і виберіть Hugging Face у випадному списку провайдерів, а потім введіть свій API-ключ, коли з’явиться запит:
- У випадному списку Default Hugging Face model виберіть потрібну модель (список завантажується з Inference API, коли у вас є дійсний токен; інакше показується вбудований список). Ваш вибір зберігається як типова модель.
- Ви також можете встановити або змінити типову модель пізніше в конфігурації:
Неінтерактивний приклад
huggingface/deepseek-ai/DeepSeek-R1 як типову модель.
Примітка щодо середовища
Якщо Gateway працює як служба (launchd/systemd), переконайтеся, щоHUGGINGFACE_HUB_TOKEN або HF_TOKEN
доступний цьому процесу (наприклад, у ~/.openclaw/.env або через
env.shellEnv).
Виявлення моделей і випадний список onboarding
OpenClaw виявляє моделі, викликаючи Inference endpoint напряму:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN або $HF_TOKEN, щоб отримати повний список; деякі endpoint повертають підмножину без auth.) Відповідь має формат OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Коли ви налаштовуєте API-ключ Hugging Face (через onboarding, HUGGINGFACE_HUB_TOKEN або HF_TOKEN), OpenClaw використовує цей GET для виявлення доступних моделей chat completion. Під час інтерактивного налаштування, після введення токена, ви побачите випадний список Default Hugging Face model, заповнений з цього списку (або з вбудованого каталогу, якщо запит не вдався). Під час runtime (наприклад, під час запуску Gateway), коли ключ присутній, OpenClaw знову викликає GET https://router.huggingface.co/v1/models, щоб оновити каталог. Список об’єднується з вбудованим каталогом (для метаданих, як-от контекстне вікно і вартість). Якщо запит не вдається або ключ не задано, використовується лише вбудований каталог.
Назви моделей і редаговані параметри
- Назва з API: Відображувана назва моделі гідратується з GET /v1/models, коли API повертає
name,titleабоdisplay_name; інакше вона виводиться з id моделі (наприклад,deepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Перевизначення відображуваної назви: Ви можете встановити власну мітку для кожної моделі в конфігурації, щоб вона відображалася у CLI та UI так, як вам потрібно:
-
Суфікси політик: Вбудована документація й допоміжні функції OpenClaw для Hugging Face наразі розглядають ці два суфікси як вбудовані варіанти політик:
:fastest— найвища пропускна здатність.:cheapest— найнижча вартість за вихідний токен.
models.providers.huggingface.modelsабо встановитиmodel.primaryіз цим суфіксом. Ви також можете задати типовий порядок провайдерів у Inference Provider settings (без суфікса = використовувати цей порядок). -
Об’єднання конфігурації: Наявні записи в
models.providers.huggingface.models(наприклад, уmodels.json) зберігаються під час об’єднання конфігурації. Тому будь-які власніname,aliasабо параметри моделі, які ви там задасте, буде збережено.
Ідентифікатори моделей і приклади конфігурації
Посилання на моделі використовують форматhuggingface/<org>/<model> (id у стилі Hub). Наведений нижче список узято з GET https://router.huggingface.co/v1/models; ваш каталог може містити більше.
Приклади id (з inference endpoint):
| Модель | Ref (з префіксом huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest або :cheapest до id моделі. Задайте типовий порядок у Inference Provider settings; див. Inference Providers і GET https://router.huggingface.co/v1/models для повного списку.
Повні приклади конфігурації
Основна DeepSeek R1 із резервною Qwen::cheapest і :fastest: