Hugging Face (Inference)
Hugging Face Inference Providers oferują zgodne z OpenAI chat completions przez pojedyncze API routera. Otrzymujesz dostęp do wielu modeli (DeepSeek, Llama i innych) za pomocą jednego tokena. OpenClaw używa endpointu zgodnego z OpenAI (tylko chat completions); do text-to-image, embeddingów lub mowy użyj bezpośrednio klientów HF inference.- Provider:
huggingface - Uwierzytelnianie:
HUGGINGFACE_HUB_TOKENlubHF_TOKEN(token o szczegółowych uprawnieniach z uprawnieniem Make calls to Inference Providers) - API: zgodne z OpenAI (
https://router.huggingface.co/v1) - Rozliczenia: jeden token HF; cennik opiera się na stawkach providerów i obejmuje darmowy poziom.
Szybki start
- Utwórz token o szczegółowych uprawnieniach na stronie Hugging Face → Settings → Tokens z uprawnieniem Make calls to Inference Providers.
- Uruchom onboarding i wybierz Hugging Face z listy rozwijanej providerów, a następnie wprowadź klucz API, gdy pojawi się monit:
- Na liście rozwijanej Default Hugging Face model wybierz model, którego chcesz używać (lista jest ładowana z Inference API, gdy masz prawidłowy token; w przeciwnym razie wyświetlana jest wbudowana lista). Twój wybór zostanie zapisany jako model domyślny.
- Możesz też ustawić lub zmienić model domyślny później w konfiguracji:
Przykład nieinteraktywny
huggingface/deepseek-ai/DeepSeek-R1 jako model domyślny.
Uwaga dotycząca środowiska
Jeśli Gateway działa jako demon (launchd/systemd), upewnij się, żeHUGGINGFACE_HUB_TOKEN lub HF_TOKEN
jest dostępny dla tego procesu (na przykład w ~/.openclaw/.env lub przez
env.shellEnv).
Wykrywanie modeli i lista rozwijana onboardingu
OpenClaw wykrywa modele, wywołując endpoint Inference bezpośrednio:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN lub $HF_TOKEN, aby uzyskać pełną listę; niektóre endpointy bez uwierzytelniania zwracają tylko podzbiór.) Odpowiedź ma styl OpenAI: { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Gdy skonfigurujesz klucz API Hugging Face (przez onboarding, HUGGINGFACE_HUB_TOKEN lub HF_TOKEN), OpenClaw użyje tego żądania GET do wykrycia dostępnych modeli chat-completion. Podczas konfiguracji interaktywnej, po wprowadzeniu tokena zobaczysz listę rozwijaną Default Hugging Face model wypełnioną na podstawie tej listy (lub wbudowanego katalogu, jeśli żądanie się nie powiedzie). W czasie działania (np. przy uruchamianiu Gateway), gdy klucz jest dostępny, OpenClaw ponownie wywołuje GET https://router.huggingface.co/v1/models, aby odświeżyć katalog. Lista jest scalana z wbudowanym katalogiem (dla metadanych, takich jak okno kontekstu i koszt). Jeśli żądanie się nie powiedzie lub nie ustawiono klucza, używany jest tylko wbudowany katalog.
Nazwy modeli i opcje edytowalne
- Nazwa z API: Wyświetlana nazwa modelu jest uzupełniana z GET /v1/models, gdy API zwraca
name,titlelubdisplay_name; w przeciwnym razie jest wyprowadzana z identyfikatora modelu (np.deepseek-ai/DeepSeek-R1→ „DeepSeek R1”). - Nadpisanie nazwy wyświetlanej: Możesz ustawić własną etykietę dla każdego modelu w konfiguracji, aby był wyświetlany tak, jak chcesz w CLI i UI:
-
Sufiksy polityk: Dołączona dokumentacja i helpery Hugging Face w OpenClaw obecnie traktują te dwa sufiksy jako wbudowane warianty polityk:
:fastest— najwyższa przepustowość.:cheapest— najniższy koszt na token wyjściowy.
models.providers.huggingface.modelslub ustawićmodel.primaryz tym sufiksem. Możesz też ustawić domyślną kolejność providerów w ustawieniach Inference Providers (brak sufiksu = użyj tej kolejności). -
Scalanie konfiguracji: Istniejące wpisy w
models.providers.huggingface.models(np. wmodels.json) są zachowywane podczas scalania konfiguracji. Oznacza to, że wszystkie ustawione tam własnename,aliaslub opcje modelu zostaną zachowane.
Identyfikatory modeli i przykłady konfiguracji
Odwołania do modeli mają postaćhuggingface/<org>/<model> (identyfikatory w stylu Hub). Lista poniżej pochodzi z GET https://router.huggingface.co/v1/models; Twój katalog może zawierać więcej pozycji.
Przykładowe identyfikatory (z endpointu inference):
| Model | Ref (z prefiksem huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest lub :cheapest do identyfikatora modelu. Ustaw domyślną kolejność w ustawieniach Inference Providers; pełną listę znajdziesz w Inference Providers oraz pod GET https://router.huggingface.co/v1/models.
Pełne przykłady konfiguracji
Główny model DeepSeek R1 z fallbackiem do Qwen::cheapest i :fastest: