Hugging Face (Inference)
Les Hugging Face Inference Providers proposent des chat completions compatibles OpenAI via une API de routage unique. Vous obtenez l’accès à de nombreux modèles (DeepSeek, Llama, etc.) avec un seul jeton. OpenClaw utilise le point de terminaison compatible OpenAI (chat completions uniquement) ; pour le text-to-image, les embeddings ou la parole, utilisez directement les clients HF inference.- Provider :
huggingface - Authentification :
HUGGINGFACE_HUB_TOKENouHF_TOKEN(jeton à granularité fine avec Make calls to Inference Providers) - API : compatible OpenAI (
https://router.huggingface.co/v1) - Facturation : jeton HF unique ; la tarification suit les tarifs des providers avec un niveau gratuit.
Démarrage rapide
- Créez un jeton à granularité fine sur Hugging Face → Settings → Tokens avec l’autorisation Make calls to Inference Providers.
- Lancez l’onboarding et choisissez Hugging Face dans la liste déroulante des providers, puis saisissez votre clé API lorsqu’elle est demandée :
- Dans la liste déroulante Default Hugging Face model, choisissez le modèle souhaité (la liste est chargée depuis l’API Inference lorsque vous avez un jeton valide ; sinon une liste intégrée est affichée). Votre choix est enregistré comme modèle par défaut.
- Vous pouvez également définir ou modifier le modèle par défaut plus tard dans la configuration :
Exemple non interactif
huggingface/deepseek-ai/DeepSeek-R1 comme modèle par défaut.
Remarque sur l’environnement
Si la Gateway s’exécute comme démon (launchd/systemd), assurez-vous queHUGGINGFACE_HUB_TOKEN ou HF_TOKEN
est disponible pour ce processus (par exemple dans ~/.openclaw/.env ou via
env.shellEnv).
Découverte des modèles et liste déroulante pendant l’onboarding
OpenClaw découvre les modèles en appelant directement le point de terminaison Inference :Authorization: Bearer $HUGGINGFACE_HUB_TOKEN ou $HF_TOKEN pour la liste complète ; certains points de terminaison renvoient un sous-ensemble sans authentification.) La réponse suit le style OpenAI : { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Lorsque vous configurez une clé API Hugging Face (via l’onboarding, HUGGINGFACE_HUB_TOKEN, ou HF_TOKEN), OpenClaw utilise ce GET pour découvrir les modèles de chat completion disponibles. Pendant la configuration interactive, après avoir saisi votre jeton, vous voyez une liste déroulante Default Hugging Face model alimentée à partir de cette liste (ou du catalogue intégré si la requête échoue). À l’exécution (par exemple au démarrage de la Gateway), lorsqu’une clé est présente, OpenClaw appelle de nouveau GET https://router.huggingface.co/v1/models pour actualiser le catalogue. La liste est fusionnée avec un catalogue intégré (pour des métadonnées comme la fenêtre de contexte et le coût). Si la requête échoue ou si aucune clé n’est définie, seul le catalogue intégré est utilisé.
Noms de modèles et options modifiables
- Nom depuis l’API : le nom d’affichage du modèle est hydraté depuis GET /v1/models lorsque l’API renvoie
name,title, oudisplay_name; sinon il est dérivé de l’identifiant du modèle (par exempledeepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Remplacer le nom d’affichage : vous pouvez définir un libellé personnalisé par modèle dans la configuration afin qu’il apparaisse comme vous le souhaitez dans la CLI et l’UI :
-
Suffixes de politique : la documentation et les assistants intégrés OpenClaw pour Hugging Face traitent actuellement ces deux suffixes comme les variantes de politique intégrées :
:fastest— débit maximal.:cheapest— coût le plus faible par jeton de sortie.
models.providers.huggingface.modelsou définirmodel.primaryavec le suffixe. Vous pouvez aussi définir votre ordre de provider par défaut dans les paramètres Inference Provider (sans suffixe = utiliser cet ordre). -
Fusion de configuration : les entrées existantes dans
models.providers.huggingface.models(par exemple dansmodels.json) sont conservées lors de la fusion de la configuration. Ainsi, toutname,aliasou toute option de modèle que vous y définissez est préservé.
ID de modèle et exemples de configuration
Les références de modèle utilisent la formehuggingface/<org>/<model> (ID de style Hub). La liste ci-dessous provient de GET https://router.huggingface.co/v1/models ; votre catalogue peut en inclure davantage.
Exemples d’ID (depuis le point de terminaison inference) :
| Modèle | Référence (préfixer avec huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest ou :cheapest à l’identifiant du modèle. Définissez votre ordre par défaut dans les paramètres Inference Provider ; voir Inference Providers et GET https://router.huggingface.co/v1/models pour la liste complète.
Exemples de configuration complets
DeepSeek R1 principal avec Qwen en repli ::cheapest et :fastest :