Hugging Face Inference Providers bieden OpenAI-compatibele chatvoltooiingen via een enkele router-API. Je krijgt toegang tot veel modellen (DeepSeek, Llama en meer) met een token. OpenClaw gebruikt het OpenAI-compatibele eindpunt (alleen chatvoltooiingen); gebruik voor tekst-naar-afbeelding, embeddings of spraak de HF-inferenceclients rechtstreeks.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENofHF_TOKEN(fijnmazig token met Make calls to Inference Providers) - API: OpenAI-compatibel (
https://router.huggingface.co/v1) - Facturering: enkel HF-token; prijzen volgen providertarieven met een gratis laag.
Aan de slag
Maak een fijnmazig token
Ga naar Hugging Face Settings Tokens en maak een nieuw fijnmazig token.
Voer onboarding uit
Kies Hugging Face in de providerkeuzelijst en voer daarna je API-sleutel in wanneer daarom wordt gevraagd:
Selecteer een standaardmodel
Kies in de keuzelijst Standaard Hugging Face-model het gewenste model. De lijst wordt geladen vanuit de Inference API wanneer je een geldig token hebt; anders wordt een ingebouwde lijst getoond. Je keuze wordt opgeslagen als het standaardmodel.Je kunt het standaardmodel later ook instellen of wijzigen in de configuratie:
Niet-interactieve instelling
huggingface/deepseek-ai/DeepSeek-R1 in als het standaardmodel.
Model-ID’s
Modelreferenties gebruiken de vormhuggingface/<org>/<model> (Hub-stijl-ID’s). De onderstaande lijst komt van GET https://router.huggingface.co/v1/models; je catalogus kan meer bevatten.
| Model | Ref (prefix met huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Geavanceerde configuratie
Modeldetectie en onboarding-keuzelijst
Modeldetectie en onboarding-keuzelijst
OpenClaw ontdekt modellen door het Inference-eindpunt rechtstreeks aan te roepen:(Optioneel: stuur
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN of $HF_TOKEN voor de volledige lijst; sommige eindpunten retourneren zonder auth een subset.) Het antwoord heeft OpenAI-stijl: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.Wanneer je een Hugging Face API-sleutel configureert (via onboarding, HUGGINGFACE_HUB_TOKEN of HF_TOKEN), gebruikt OpenClaw deze GET om beschikbare chatvoltooiingsmodellen te ontdekken. Tijdens interactieve instelling, nadat je je token hebt ingevoerd, zie je een keuzelijst Standaard Hugging Face-model die is gevuld vanuit die lijst (of de ingebouwde catalogus als het verzoek mislukt). Tijdens runtime (bijvoorbeeld bij het opstarten van de Gateway) roept OpenClaw, wanneer er een sleutel aanwezig is, opnieuw GET https://router.huggingface.co/v1/models aan om de catalogus te vernieuwen. De lijst wordt samengevoegd met een ingebouwde catalogus (voor metadata zoals contextvenster en kosten). Als het verzoek mislukt of er geen sleutel is ingesteld, wordt alleen de ingebouwde catalogus gebruikt.Modelnamen, aliassen en beleidssuffixen
Modelnamen, aliassen en beleidssuffixen
- Naam uit API: De weergavenaam van het model wordt aangevuld vanuit GET /v1/models wanneer de API
name,titleofdisplay_nameretourneert; anders wordt deze afgeleid van het model-ID (bijvoorbeelddeepseek-ai/DeepSeek-R1wordt “DeepSeek R1”). - Weergavenaam overschrijven: Je kunt per model een aangepast label instellen in de configuratie, zodat het in de CLI en UI wordt weergegeven zoals jij wilt:
-
Beleidssuffixen: De meegeleverde Hugging Face-documentatie en helpers van OpenClaw behandelen deze twee suffixen momenteel als de ingebouwde beleidsvarianten:
:fastest— hoogste doorvoer.:cheapest— laagste kosten per uitvoertoken.
models.providers.huggingface.modelsofmodel.primaryinstellen met het suffix. Je kunt ook je standaardprovidervolgorde instellen in Inference Provider-instellingen (geen suffix = gebruik die volgorde). -
Configuratiesamenvoeging: Bestaande vermeldingen in
models.providers.huggingface.models(bijvoorbeeld inmodels.json) blijven behouden wanneer de configuratie wordt samengevoegd. Dus alle aangepastename,aliasof modelopties die je daar instelt, blijven behouden.
Omgeving en daemoninstelling
Omgeving en daemoninstelling
Als de Gateway als daemon draait (launchd/systemd), zorg er dan voor dat
HUGGINGFACE_HUB_TOKEN of HF_TOKEN beschikbaar is voor dat proces (bijvoorbeeld in ~/.openclaw/.env of via env.shellEnv).OpenClaw accepteert zowel
HUGGINGFACE_HUB_TOKEN als HF_TOKEN als aliassen voor omgevingsvariabelen. Beide werken; als beide zijn ingesteld, heeft HUGGINGFACE_HUB_TOKEN voorrang.Config: DeepSeek R1 met Qwen-fallback
Config: DeepSeek R1 met Qwen-fallback
Config: Qwen met goedkoopste en snelste varianten
Config: Qwen met goedkoopste en snelste varianten
Config: DeepSeek + Llama + GPT-OSS met aliassen
Config: DeepSeek + Llama + GPT-OSS met aliassen
Config: Meerdere Qwen- en DeepSeek-modellen met beleidssuffixen
Config: Meerdere Qwen- en DeepSeek-modellen met beleidssuffixen
Gerelateerd
Modelselectie
Overzicht van alle providers, modelreferenties en failovergedrag.
Modelselectie
Hoe je modellen kiest en configureert.
Documentatie voor Inference Providers
Officiële documentatie van Hugging Face Inference Providers.
Configuratie
Volledige configuratiereferentie.