Hugging Face (Inference)
Hugging Face Inference Providers oferecem conclusões de chat compatíveis com OpenAI por meio de uma única API de roteamento. Você obtém acesso a muitos modelos (DeepSeek, Llama e outros) com um único token. O OpenClaw usa o endpoint compatível com OpenAI (apenas conclusões de chat); para texto para imagem, embeddings ou speech, use diretamente os clientes de inference do HF.- Provider:
huggingface - Autenticação:
HUGGINGFACE_HUB_TOKENouHF_TOKEN(token fine-grained com Make calls to Inference Providers) - API: compatível com OpenAI (
https://router.huggingface.co/v1) - Cobrança: um único token HF; o preço segue as tarifas do provider com uma camada gratuita.
Primeiros passos
Crie um token fine-grained
Acesse Hugging Face Settings Tokens e crie um novo token fine-grained.
Execute o onboarding
Escolha Hugging Face no menu suspenso do provider e depois insira sua chave de API quando solicitado:
Selecione um modelo padrão
No menu suspenso Default Hugging Face model, escolha o modelo que deseja. A lista é carregada da API Inference quando você tem um token válido; caso contrário, é exibida uma lista builtin. Sua escolha é salva como modelo padrão.Você também pode definir ou alterar o modelo padrão depois na configuração:
Configuração não interativa
huggingface/deepseek-ai/DeepSeek-R1 como modelo padrão.
IDs de modelo
As refs de modelo usam o formatohuggingface/<org>/<model> (IDs no estilo Hub). A lista abaixo vem de GET https://router.huggingface.co/v1/models; seu catálogo pode incluir mais.
| Modelo | Ref (prefixe com huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Detalhes avançados
Descoberta de modelos e menu suspenso de onboarding
Descoberta de modelos e menu suspenso de onboarding
Nomes de modelo, aliases e sufixos de política
Nomes de modelo, aliases e sufixos de política
- Nome vindo da API: O nome de exibição do modelo é hidratado a partir de GET /v1/models quando a API retorna
name,titleoudisplay_name; caso contrário, ele é derivado do ID do modelo (por exemplo,deepseek-ai/DeepSeek-R1se torna “DeepSeek R1”). - Sobrescrever nome de exibição: Você pode definir um rótulo personalizado por modelo na configuração para que ele apareça da forma que quiser na CLI e na UI:
-
Sufixos de política: Atualmente, a documentação e os helpers builtin do Hugging Face no OpenClaw tratam estes dois sufixos como variantes de política builtin:
:fastest— maior throughput.:cheapest— menor custo por token de saída.
models.providers.huggingface.modelsou definirmodel.primarycom o sufixo. Também pode definir sua ordem padrão de provider em Inference Provider settings (sem sufixo = usar essa ordem). -
Mesclagem de configuração: Entradas existentes em
models.providers.huggingface.models(por exemplo, emmodels.json) são mantidas quando a configuração é mesclada. Assim, qualquername,aliasou opção de modelo personalizada que você definir ali é preservada.
Ambiente e configuração do daemon
Ambiente e configuração do daemon
Se o Gateway rodar como daemon (launchd/systemd), garanta que
HUGGINGFACE_HUB_TOKEN ou HF_TOKEN esteja disponível para esse processo (por exemplo, em ~/.openclaw/.env ou via env.shellEnv).O OpenClaw aceita tanto
HUGGINGFACE_HUB_TOKEN quanto HF_TOKEN como aliases de variável de ambiente. Qualquer um funciona; se ambos estiverem definidos, HUGGINGFACE_HUB_TOKEN terá precedência.Configuração: DeepSeek R1 com fallback para Qwen
Configuração: DeepSeek R1 com fallback para Qwen
Configuração: Qwen com variantes cheapest e fastest
Configuração: Qwen com variantes cheapest e fastest
Configuração: DeepSeek + Llama + GPT-OSS com aliases
Configuração: DeepSeek + Llama + GPT-OSS com aliases
Configuração: vários Qwen e DeepSeek com sufixos de política
Configuração: vários Qwen e DeepSeek com sufixos de política
Relacionado
Providers de modelo
Visão geral de todos os providers, refs de modelo e comportamento de failover.
Seleção de modelo
Como escolher e configurar modelos.
Docs do Inference Providers
Documentação oficial do Hugging Face Inference Providers.
Configuração
Referência completa de configuração.