Hugging Face (Inference)
Hugging Face Inference Providers bieten OpenAI-kompatible Chat Completions über eine einzelne Router-API. Sie erhalten mit einem Token Zugriff auf viele Modelle (DeepSeek, Llama und mehr). OpenClaw verwendet den OpenAI-kompatiblen Endpunkt (nur Chat Completions); für Text-zu-Bild, Embeddings oder Sprache verwenden Sie direkt die HF Inference-Clients.- Provider:
huggingface - Authentifizierung:
HUGGINGFACE_HUB_TOKENoderHF_TOKEN(feingranularer Token mit Make calls to Inference Providers) - API: OpenAI-kompatibel (
https://router.huggingface.co/v1) - Abrechnung: Ein einzelner HF-Token; die Preisgestaltung folgt den Provider-Tarifen mit einer kostenlosen Stufe.
Erste Schritte
Create a fine-grained token
Gehen Sie zu Hugging Face Settings Tokens und erstellen Sie einen neuen feingranularen Token.
Run onboarding
Wählen Sie Hugging Face im Provider-Dropdown aus und geben Sie dann Ihren API key ein, wenn Sie dazu aufgefordert werden:
Select a default model
Wählen Sie im Dropdown Default Hugging Face model das gewünschte Modell aus. Die Liste wird aus der Inference API geladen, wenn Sie einen gültigen Token haben; andernfalls wird eine integrierte Liste angezeigt. Ihre Auswahl wird als Standardmodell gespeichert.Sie können das Standardmodell später auch in der Konfiguration setzen oder ändern:
Nicht interaktive Einrichtung
huggingface/deepseek-ai/DeepSeek-R1 als Standardmodell gesetzt.
Modell-IDs
Modell-Referenzen verwenden die Formhuggingface/<org>/<model> (Hub-ähnliche IDs). Die folgende Liste stammt von GET https://router.huggingface.co/v1/models; Ihr Katalog kann mehr enthalten.
| Modell | Ref (mit Präfix huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Erweiterte Details
Modellerkennung und Onboarding-Dropdown
Modellerkennung und Onboarding-Dropdown
OpenClaw erkennt Modelle, indem es den Inference-Endpunkt direkt aufruft:(Optional: Senden Sie
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN oder $HF_TOKEN für die vollständige Liste; einige Endpunkte geben ohne Authentifizierung nur eine Teilmenge zurück.) Die Antwort ist im OpenAI-Stil { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.Wenn Sie einen Hugging Face API key konfigurieren (über Onboarding, HUGGINGFACE_HUB_TOKEN oder HF_TOKEN), verwendet OpenClaw dieses GET, um verfügbare Chat-Completion-Modelle zu erkennen. Während der interaktiven Einrichtung sehen Sie nach Eingabe Ihres Tokens ein Dropdown Default Hugging Face model, das mit dieser Liste gefüllt wird (oder mit dem integrierten Katalog, falls die Anfrage fehlschlägt). Zur Laufzeit (z. B. beim Gateway-Start) ruft OpenClaw erneut GET https://router.huggingface.co/v1/models auf, um den Katalog zu aktualisieren, wenn ein Schlüssel vorhanden ist. Die Liste wird mit einem integrierten Katalog zusammengeführt (für Metadaten wie Kontextfenster und Kosten). Falls die Anfrage fehlschlägt oder kein Schlüssel gesetzt ist, wird nur der integrierte Katalog verwendet.Modellnamen, Aliase und Richtlinien-Suffixe
Modellnamen, Aliase und Richtlinien-Suffixe
- Name aus der API: Der Anzeigename des Modells wird aus GET /v1/models übernommen, wenn die API
name,titleoderdisplay_namezurückgibt; andernfalls wird er aus der Modell-ID abgeleitet (z. B. wirddeepseek-ai/DeepSeek-R1zu „DeepSeek R1“). - Anzeigenamen überschreiben: Sie können pro Modell in der Konfiguration ein benutzerdefiniertes Label setzen, damit es in CLI und UI so erscheint, wie Sie es möchten:
-
Richtlinien-Suffixe: OpenClaws gebündelte Hugging-Face-Dokumentation und Hilfsfunktionen behandeln derzeit diese beiden Suffixe als integrierte Richtlinienvarianten:
:fastest— höchster Durchsatz.:cheapest— niedrigste Kosten pro Ausgabetoken.
models.providers.huggingface.modelshinzufügen odermodel.primarymit dem Suffix setzen. Sie können Ihre Standard-Provider-Reihenfolge auch in den Inference Provider settings festlegen (ohne Suffix = diese Reihenfolge verwenden). -
Zusammenführen der Konfiguration: Vorhandene Einträge in
models.providers.huggingface.models(z. B. inmodels.json) bleiben beim Zusammenführen der Konfiguration erhalten. Daher bleiben alle benutzerdefiniertenname,aliasoder Modelloptionen, die Sie dort festlegen, erhalten.
Umgebungs- und Daemon-Einrichtung
Umgebungs- und Daemon-Einrichtung
Wenn das Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass
HUGGINGFACE_HUB_TOKEN oder HF_TOKEN für diesen Prozess verfügbar ist (zum Beispiel in ~/.openclaw/.env oder über env.shellEnv).OpenClaw akzeptiert sowohl
HUGGINGFACE_HUB_TOKEN als auch HF_TOKEN als Umgebungsvariablen-Aliase. Beide funktionieren; wenn beide gesetzt sind, hat HUGGINGFACE_HUB_TOKEN Vorrang.Konfiguration: DeepSeek R1 mit Qwen-Fallback
Konfiguration: DeepSeek R1 mit Qwen-Fallback
Konfiguration: Qwen mit günstigsten und schnellsten Varianten
Konfiguration: Qwen mit günstigsten und schnellsten Varianten
Konfiguration: DeepSeek + Llama + GPT-OSS mit Aliasen
Konfiguration: DeepSeek + Llama + GPT-OSS mit Aliasen
Konfiguration: Mehrere Qwen- und DeepSeek-Modelle mit Richtlinien-Suffixen
Konfiguration: Mehrere Qwen- und DeepSeek-Modelle mit Richtlinien-Suffixen
Verwandt
Model providers
Überblick über alle Provider, Modell-Referenzen und Failover-Verhalten.
Modellauswahl
Wie Modelle ausgewählt und konfiguriert werden.
Inference Providers docs
Offizielle Dokumentation zu Hugging Face Inference Providers.
Konfiguration
Vollständige Konfigurationsreferenz.