Hugging Face (Inference)
Gli Hugging Face Inference Providers offrono chat completions compatibili con OpenAI tramite una singola API router. Ottieni accesso a molti modelli (DeepSeek, Llama e altri) con un solo token. OpenClaw usa l’endpoint compatibile con OpenAI (solo chat completions); per text-to-image, embeddings o speech usa direttamente i client di inferenza HF.- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENoHF_TOKEN(token a granularità fine con Make calls to Inference Providers) - API: compatibile con OpenAI (
https://router.huggingface.co/v1) - Billing: singolo token HF; i prezzi seguono le tariffe del provider con un livello gratuito.
Per iniziare
Crea un token a granularità fine
Vai su Hugging Face Settings Tokens e crea un nuovo token a granularità fine.
Esegui l’onboarding
Scegli Hugging Face nel menu a discesa del provider, poi inserisci la tua chiave API quando richiesto:
Seleziona un modello predefinito
Nel menu a discesa Default Hugging Face model, scegli il modello che vuoi. L’elenco viene caricato dall’API Inference quando hai un token valido; altrimenti viene mostrato un elenco integrato. La tua scelta viene salvata come modello predefinito.Puoi anche impostare o cambiare il modello predefinito più tardi nella configurazione:
Configurazione non interattiva
huggingface/deepseek-ai/DeepSeek-R1 come modello predefinito.
ID modello
I riferimenti di modello usano il formatohuggingface/<org>/<model> (ID in stile Hub). L’elenco seguente proviene da GET https://router.huggingface.co/v1/models; il tuo catalogo potrebbe includerne altri.
| Model | Ref (prefix with huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Dettagli avanzati
Rilevamento dei modelli e menu a discesa dell’onboarding
Rilevamento dei modelli e menu a discesa dell’onboarding
Nomi modello, alias e suffissi di policy
Nomi modello, alias e suffissi di policy
- Nome dall’API: il nome visualizzato del modello viene idratato da GET /v1/models quando l’API restituisce
name,titleodisplay_name; altrimenti viene derivato dall’ID del modello (ad esempiodeepseek-ai/DeepSeek-R1diventa “DeepSeek R1”). - Sostituisci il nome visualizzato: puoi impostare un’etichetta personalizzata per modello nella configurazione in modo che appaia come vuoi nella CLI e nell’interfaccia:
-
Suffissi di policy: la documentazione e gli helper integrati di Hugging Face in OpenClaw attualmente trattano questi due suffissi come varianti di policy integrate:
:fastest— massima velocità effettiva.:cheapest— costo più basso per token di output.
models.providers.huggingface.modelsoppure impostaremodel.primarycon il suffisso. Puoi anche impostare il tuo ordine predefinito del provider nelle impostazioni di Inference Provider (senza suffisso = usa quell’ordine). -
Unione della configurazione: le voci esistenti in
models.providers.huggingface.models(ad esempio inmodels.json) vengono mantenute quando la configurazione viene unita. Quindi qualsiasiname,aliaso opzione del modello che imposti lì viene preservata.
Configurazione dell’ambiente e del daemon
Configurazione dell’ambiente e del daemon
Se il Gateway viene eseguito come daemon (launchd/systemd), assicurati che
HUGGINGFACE_HUB_TOKEN o HF_TOKEN sia disponibile per quel processo (ad esempio in ~/.openclaw/.env o tramite env.shellEnv).OpenClaw accetta sia
HUGGINGFACE_HUB_TOKEN sia HF_TOKEN come alias di variabile d’ambiente. Funzionano entrambi; se sono impostati entrambi, HUGGINGFACE_HUB_TOKEN ha la precedenza.Configurazione: DeepSeek R1 con fallback Qwen
Configurazione: DeepSeek R1 con fallback Qwen
Configurazione: Qwen con varianti cheapest e fastest
Configurazione: Qwen con varianti cheapest e fastest
Configurazione: DeepSeek + Llama + GPT-OSS con alias
Configurazione: DeepSeek + Llama + GPT-OSS con alias
Configurazione: più Qwen e DeepSeek con suffissi di policy
Configurazione: più Qwen e DeepSeek con suffissi di policy
Correlati
Provider di modelli
Panoramica di tutti i provider, dei riferimenti di modello e del comportamento di failover.
Selezione del modello
Come scegliere e configurare i modelli.
Documentazione Inference Providers
Documentazione ufficiale di Hugging Face Inference Providers.
Configurazione
Riferimento completo della configurazione.