Hugging Face (Inference)
Los Hugging Face Inference Providers ofrecen chat completions compatibles con OpenAI mediante una sola API de enrutador. Obtienes acceso a muchos modelos (DeepSeek, Llama y más) con un único token. OpenClaw usa el endpoint compatible con OpenAI (solo chat completions); para texto a imagen, embeddings o voz, usa directamente los clientes de inferencia de HF.- Proveedor:
huggingface - Autenticación:
HUGGINGFACE_HUB_TOKENoHF_TOKEN(token de granularidad fina con Make calls to Inference Providers) - API: compatible con OpenAI (
https://router.huggingface.co/v1) - Facturación: un único token de HF; el precio sigue las tarifas del proveedor con un nivel gratuito.
Inicio rápido
- Crea un token de granularidad fina en Hugging Face → Settings → Tokens con el permiso Make calls to Inference Providers.
- Ejecuta el onboarding y elige Hugging Face en el desplegable del proveedor; luego introduce tu clave API cuando se te solicite:
- En el desplegable Default Hugging Face model, elige el modelo que quieras (la lista se carga desde la API de Inference cuando tienes un token válido; de lo contrario, se muestra una lista integrada). Tu elección se guarda como modelo predeterminado.
- También puedes establecer o cambiar el modelo predeterminado más adelante en la configuración:
Ejemplo no interactivo
huggingface/deepseek-ai/DeepSeek-R1 como modelo predeterminado.
Nota sobre el entorno
Si el Gateway se ejecuta como daemon (launchd/systemd), asegúrate de queHUGGINGFACE_HUB_TOKEN o HF_TOKEN
esté disponible para ese proceso (por ejemplo en ~/.openclaw/.env o mediante
env.shellEnv).
Descubrimiento de modelos y desplegable del onboarding
OpenClaw descubre modelos llamando directamente al endpoint de Inference:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN o $HF_TOKEN para obtener la lista completa; algunos endpoints devuelven un subconjunto sin autenticación). La respuesta es de estilo OpenAI: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Cuando configuras una clave API de Hugging Face (mediante onboarding, HUGGINGFACE_HUB_TOKEN o HF_TOKEN), OpenClaw usa este GET para descubrir los modelos de chat-completion disponibles. Durante la configuración interactiva, después de introducir tu token ves un desplegable Default Hugging Face model rellenado a partir de esa lista (o del catálogo integrado si la solicitud falla). En tiempo de ejecución (por ejemplo, al iniciar el Gateway), cuando hay una clave presente, OpenClaw vuelve a llamar a GET https://router.huggingface.co/v1/models para actualizar el catálogo. La lista se fusiona con un catálogo integrado (para metadatos como ventana de contexto y costo). Si la solicitud falla o no hay ninguna clave configurada, solo se usa el catálogo integrado.
Nombres de modelos y opciones editables
- Nombre desde la API: El nombre para mostrar del modelo se hidrata desde GET /v1/models cuando la API devuelve
name,titleodisplay_name; en caso contrario, se deriva del id del modelo (por ejemplo,deepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Anular el nombre para mostrar: Puedes establecer una etiqueta personalizada por modelo en la configuración para que aparezca como quieras en la CLI y la IU:
-
Sufijos de política: La documentación y los helpers integrados de OpenClaw para Hugging Face tratan actualmente estos dos sufijos como variantes de política integradas:
:fastest— máximo rendimiento.:cheapest— menor costo por token de salida.
models.providers.huggingface.modelso establecermodel.primarycon el sufijo. También puedes definir tu orden predeterminado de proveedor en Inference Provider settings (sin sufijo = usar ese orden). -
Fusión de configuración: Las entradas existentes en
models.providers.huggingface.models(por ejemplo, enmodels.json) se conservan cuando se fusiona la configuración. Así que cualquiername,aliasu opción de modelo personalizada que establezcas allí se preserva.
IDs de modelo y ejemplos de configuración
Las referencias de modelo usan la formahuggingface/<org>/<model> (IDs de estilo Hub). La lista siguiente procede de GET https://router.huggingface.co/v1/models; tu catálogo puede incluir más.
IDs de ejemplo (del endpoint de inferencia):
| Modelo | Ref (anteponer huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest o :cheapest al id del modelo. Establece tu orden predeterminado en Inference Provider settings; consulta Inference Providers y GET https://router.huggingface.co/v1/models para ver la lista completa.