Hugging Face (Inference)
Hugging Face Inference Providers bieten OpenAI-kompatible Chat-Completions über eine einzige Router-API. Sie erhalten mit einem einzigen Token Zugriff auf viele Modelle (DeepSeek, Llama und mehr). OpenClaw verwendet den OpenAI-kompatiblen Endpunkt (nur Chat-Completions); für Text-zu-Bild, Embeddings oder Sprache verwenden Sie die HF Inference-Clients direkt.- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENoderHF_TOKEN(feingranulares Token mit Make calls to Inference Providers) - API: OpenAI-kompatibel (
https://router.huggingface.co/v1) - Abrechnung: Ein einzelnes HF-Token; die Preisgestaltung folgt den Provider-Tarifen mit einer kostenlosen Stufe.
Schnellstart
- Erstellen Sie unter Hugging Face → Settings → Tokens ein feingranulares Token mit der Berechtigung Make calls to Inference Providers.
- Führen Sie das Onboarding aus, wählen Sie im Provider-Dropdown Hugging Face aus und geben Sie dann auf Aufforderung Ihren API-Schlüssel ein:
- Wählen Sie im Dropdown Default Hugging Face model das gewünschte Modell aus (die Liste wird aus der Inference API geladen, wenn Sie ein gültiges Token haben; andernfalls wird eine integrierte Liste angezeigt). Ihre Auswahl wird als Standardmodell gespeichert.
- Sie können das Standardmodell auch später in der Konfiguration festlegen oder ändern:
Nicht-interaktives Beispiel
huggingface/deepseek-ai/DeepSeek-R1 als Standardmodell festgelegt.
Hinweis zur Umgebung
Wenn das Gateway als Daemon ausgeführt wird (launchd/systemd), stellen Sie sicher, dass HUGGINGFACE_HUB_TOKEN oder HF_TOKEN
für diesen Prozess verfügbar ist (zum Beispiel in ~/.openclaw/.env oder über
env.shellEnv).
Modellerkennung und Onboarding-Dropdown
OpenClaw erkennt Modelle durch direkten Aufruf des Inference-Endpunkts:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN oder $HF_TOKEN für die vollständige Liste; einige Endpunkte geben ohne Authentifizierung nur eine Teilmenge zurück.) Die Antwort ist im OpenAI-Stil gehalten: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Wenn Sie einen Hugging Face-API-Schlüssel konfigurieren (über Onboarding, HUGGINGFACE_HUB_TOKEN oder HF_TOKEN), verwendet OpenClaw dieses GET, um verfügbare Chat-Completion-Modelle zu erkennen. Während der interaktiven Einrichtung sehen Sie nach Eingabe Ihres Tokens ein Dropdown Default Hugging Face model, das mit dieser Liste gefüllt wird (oder mit dem integrierten Katalog, falls die Anfrage fehlschlägt). Zur Laufzeit (z. B. beim Gateway-Start) ruft OpenClaw, wenn ein Schlüssel vorhanden ist, erneut GET https://router.huggingface.co/v1/models auf, um den Katalog zu aktualisieren. Die Liste wird mit einem integrierten Katalog zusammengeführt (für Metadaten wie Kontextfenster und Kosten). Wenn die Anfrage fehlschlägt oder kein Schlüssel gesetzt ist, wird nur der integrierte Katalog verwendet.
Modellnamen und bearbeitbare Optionen
- Name aus der API: Der Anzeigename des Modells wird aus GET /v1/models übernommen, wenn die API
name,titleoderdisplay_namezurückgibt; andernfalls wird er aus der Modell-ID abgeleitet (z. B.deepseek-ai/DeepSeek-R1→ „DeepSeek R1“). - Anzeigenamen überschreiben: Sie können pro Modell in der Konfiguration ein benutzerdefiniertes Label setzen, damit es in der CLI und UI so erscheint, wie Sie es möchten:
-
Richtlinien-Suffixe: Die gebündelte Hugging Face-Dokumentation und die Hilfsfunktionen von OpenClaw behandeln derzeit diese beiden Suffixe als integrierte Richtlinienvarianten:
:fastest— höchster Durchsatz.:cheapest— niedrigste Kosten pro ausgegebenem Token.
models.providers.huggingface.modelshinzufügen odermodel.primarymit dem Suffix festlegen. Sie können Ihre Standardreihenfolge für Provider auch in den Inference Provider-Einstellungen festlegen (kein Suffix = diese Reihenfolge verwenden). -
Konfigurationszusammenführung: Bestehende Einträge in
models.providers.huggingface.models(z. B. inmodels.json) bleiben beim Zusammenführen der Konfiguration erhalten. Daher bleiben alle benutzerdefiniertenname-,alias- oder Modelloptionen erhalten, die Sie dort festlegen.
Modell-IDs und Konfigurationsbeispiele
Modellreferenzen verwenden das Formathuggingface/<org>/<model> (IDs im Hub-Stil). Die folgende Liste stammt aus GET https://router.huggingface.co/v1/models; Ihr Katalog kann weitere enthalten.
Beispiel-IDs (vom Inference-Endpunkt):
| Modell | Ref (mit Präfix huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest oder :cheapest an die Modell-ID anhängen. Legen Sie Ihre Standardreihenfolge in den Inference Provider-Einstellungen fest; siehe Inference Providers und GET https://router.huggingface.co/v1/models für die vollständige Liste.
Vollständige Konfigurationsbeispiele
Primäres DeepSeek R1 mit Qwen als Fallback::cheapest und :fastest: