Hugging Face (Inference)
Gli Hugging Face Inference Providers offrono chat completions compatibili con OpenAI tramite una singola API router. Ottieni accesso a molti modelli (DeepSeek, Llama e altri) con un solo token. OpenClaw usa l’endpoint compatibile con OpenAI (solo chat completions); per text-to-image, embeddings o speech usa direttamente i client di inferenza HF.- Provider:
huggingface - Autenticazione:
HUGGINGFACE_HUB_TOKENoHF_TOKEN(token a granularità fine con Make calls to Inference Providers) - API: compatibile con OpenAI (
https://router.huggingface.co/v1) - Fatturazione: singolo token HF; i prezzi seguono le tariffe del provider con un piano gratuito.
Avvio rapido
- Crea un token a granularità fine in Hugging Face → Settings → Tokens con il permesso Make calls to Inference Providers.
- Esegui l’onboarding e scegli Hugging Face nel menu a discesa del provider, quindi inserisci la tua chiave API quando richiesto:
- Nel menu a discesa Default Hugging Face model, scegli il modello desiderato (l’elenco viene caricato dalla Inference API quando hai un token valido; altrimenti viene mostrato un elenco integrato). La tua scelta viene salvata come modello predefinito.
- Puoi anche impostare o modificare il modello predefinito in seguito nella configurazione:
Esempio non interattivo
huggingface/deepseek-ai/DeepSeek-R1 come modello predefinito.
Nota sull’ambiente
Se il Gateway viene eseguito come daemon (launchd/systemd), assicurati cheHUGGINGFACE_HUB_TOKEN o HF_TOKEN
siano disponibili per quel processo (ad esempio in ~/.openclaw/.env o tramite
env.shellEnv).
Rilevamento dei modelli e menu a discesa dell’onboarding
OpenClaw rileva i modelli chiamando direttamente l’endpoint di inferenza:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN o $HF_TOKEN per l’elenco completo; alcuni endpoint restituiscono un sottoinsieme senza autenticazione.) La risposta è nello stile OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Quando configuri una chiave API Hugging Face (tramite onboarding, HUGGINGFACE_HUB_TOKEN o HF_TOKEN), OpenClaw usa questa GET per rilevare i modelli chat-completion disponibili. Durante la configurazione interattiva, dopo aver inserito il token, vedi un menu a discesa Default Hugging Face model popolato da quell’elenco (oppure dal catalogo integrato se la richiesta fallisce). A runtime (ad esempio all’avvio del Gateway), quando è presente una chiave, OpenClaw chiama di nuovo GET https://router.huggingface.co/v1/models per aggiornare il catalogo. L’elenco viene unito a un catalogo integrato (per metadati come finestra di contesto e costo). Se la richiesta fallisce o non è impostata alcuna chiave, viene usato solo il catalogo integrato.
Nomi dei modelli e opzioni modificabili
- Nome dall’API: il nome visualizzato del modello viene idrato da GET /v1/models quando l’API restituisce
name,titleodisplay_name; altrimenti viene derivato dall’id del modello (ad esempiodeepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Sovrascrivi il nome visualizzato: puoi impostare un’etichetta personalizzata per ogni modello nella configurazione, in modo che appaia come vuoi nella CLI e nella UI:
-
Suffissi di policy: la documentazione e gli helper integrati di OpenClaw per Hugging Face trattano attualmente questi due suffissi come varianti di policy integrate:
:fastest— throughput massimo.:cheapest— costo più basso per token in output.
models.providers.huggingface.modelsoppure impostaremodel.primarycon il suffisso. Puoi anche impostare l’ordine predefinito del provider nelle impostazioni di Inference Provider (nessun suffisso = usa quell’ordine). -
Merge della configurazione: le voci esistenti in
models.providers.huggingface.models(ad esempio inmodels.json) vengono mantenute quando la configurazione viene unita. Quindi qualsiasiname,aliaso opzione di modello che imposti lì viene preservata.
ID modello ed esempi di configurazione
I riferimenti ai modelli usano la formahuggingface/<org>/<model> (ID in stile Hub). L’elenco seguente proviene da GET https://router.huggingface.co/v1/models; il tuo catalogo potrebbe includerne altri.
Esempi di ID (dall’endpoint di inferenza):
| Modello | Ref (prefisso con huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest o :cheapest all’id del modello. Imposta l’ordine predefinito nelle impostazioni di Inference Provider; vedi Inference Providers e GET https://router.huggingface.co/v1/models per l’elenco completo.
Esempi completi di configurazione
DeepSeek R1 primario con fallback Qwen::cheapest e :fastest: