Hugging Face (Inference)
Провайдери Hugging Face Inference пропонують OpenAI-сумісні chat completions через єдиний router API. Ви отримуєте доступ до багатьох моделей (DeepSeek, Llama та інших) з одним токеном. OpenClaw використовує OpenAI-сумісний endpoint (лише chat completions); для text-to-image, embeddings або speech використовуйте HF inference clients напряму.- Провайдер:
huggingface - Автентифікація:
HUGGINGFACE_HUB_TOKENабоHF_TOKEN(fine-grained token з дозволом Make calls to Inference Providers) - API: OpenAI-сумісний (
https://router.huggingface.co/v1) - Оплата: один токен HF; тарифи відповідають ставкам провайдерів і мають безкоштовний рівень.
Початок роботи
Створіть fine-grained token
Перейдіть до Hugging Face Settings Tokens і створіть новий fine-grained token.
Запустіть онбординг
Виберіть Hugging Face у випадаючому списку провайдера, а потім введіть свій API-ключ, коли з’явиться запит:
Виберіть модель за замовчуванням
У випадаючому списку Default Hugging Face model виберіть потрібну модель. Список завантажується з Inference API, якщо у вас є дійсний токен; інакше показується вбудований список. Ваш вибір зберігається як модель за замовчуванням.Ви також можете встановити або змінити модель за замовчуванням пізніше в config:
Неінтерактивне налаштування
huggingface/deepseek-ai/DeepSeek-R1 як модель за замовчуванням.
ID моделей
Посилання на моделі використовують форматhuggingface/<org>/<model> (Hub-style ID). Список нижче взято з GET https://router.huggingface.co/v1/models; ваш каталог може містити більше.
| Модель | Ref (додайте префікс huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Додаткові подробиці
Виявлення моделей і випадаючий список в онбордингу
Виявлення моделей і випадаючий список в онбордингу
OpenClaw виявляє моделі, викликаючи endpoint Inference напряму:(Необов’язково: надсилайте
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN або $HF_TOKEN для повного списку; деякі endpoint без автентифікації повертають лише підмножину.) Відповідь має формат OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.Коли ви налаштовуєте API-ключ Hugging Face (через онбординг, HUGGINGFACE_HUB_TOKEN або HF_TOKEN), OpenClaw використовує цей GET для виявлення доступних моделей chat-completion. Під час інтерактивного налаштування, після введення токена, ви побачите випадаючий список Default Hugging Face model, заповнений із цього списку (або з вбудованого каталогу, якщо запит не вдасться). Під час виконання (наприклад, під час запуску Gateway), якщо ключ наявний, OpenClaw знову викликає GET https://router.huggingface.co/v1/models, щоб оновити каталог. Список об’єднується з вбудованим каталогом (для метаданих, як-от context window і вартість). Якщо запит не вдається або ключ не задано, використовується лише вбудований каталог.Назви моделей, псевдоніми та суфікси політик
Назви моделей, псевдоніми та суфікси політик
- Назва з API: Відображувана назва моделі заповнюється з GET /v1/models, коли API повертає
name,titleабоdisplay_name; інакше вона виводиться з ID моделі (наприклад,deepseek-ai/DeepSeek-R1стає “DeepSeek R1”). - Перевизначення відображуваної назви: Ви можете задати власну мітку для кожної моделі в config, щоб вона відображалася в CLI та UI так, як вам потрібно:
-
Суфікси політик: У вбудованій документації та helper-утилітах Hugging Face в OpenClaw ці два суфікси наразі розглядаються як вбудовані варіанти політик:
:fastest— найвища пропускна здатність.:cheapest— найнижча вартість за вихідний токен.
models.providers.huggingface.modelsабо встановитиmodel.primaryіз суфіксом. Ви також можете задати порядок провайдерів за замовчуванням у налаштуваннях Inference Provider (без суфікса = використовувати цей порядок). -
Об’єднання config: Наявні записи в
models.providers.huggingface.models(наприклад, уmodels.json) зберігаються під час об’єднання config. Тож будь-які власніname,aliasабо параметри моделі, які ви там задали, буде збережено.
Налаштування середовища та демона
Налаштування середовища та демона
Якщо Gateway працює як демон (launchd/systemd), переконайтеся, що
HUGGINGFACE_HUB_TOKEN або HF_TOKEN доступні цьому процесу (наприклад, у ~/.openclaw/.env або через env.shellEnv).OpenClaw приймає і
HUGGINGFACE_HUB_TOKEN, і HF_TOKEN як псевдоніми змінних середовища. Працює будь-яка з них; якщо задано обидві, пріоритет має HUGGINGFACE_HUB_TOKEN.Config: DeepSeek R1 із резервною моделлю Qwen
Config: DeepSeek R1 із резервною моделлю Qwen
Config: Qwen із найдешевшим і найшвидшим варіантами
Config: Qwen із найдешевшим і найшвидшим варіантами
Config: DeepSeek + Llama + GPT-OSS із псевдонімами
Config: DeepSeek + Llama + GPT-OSS із псевдонімами
Config: Кілька моделей Qwen і DeepSeek із суфіксами політик
Config: Кілька моделей Qwen і DeepSeek із суфіксами політик
Пов’язане
Провайдери моделей
Огляд усіх провайдерів, посилань на моделі та поведінки резервного перемикання.
Вибір моделі
Як вибирати й налаштовувати моделі.
Документація Inference Providers
Офіційна документація Hugging Face Inference Providers.
Конфігурація
Повний довідник із config.