Hugging Face (Inference)
Hugging Face Inference Providers, tek bir yönlendirici API üzerinden OpenAI uyumlu sohbet tamamlama hizmeti sunar. Tek bir token ile birçok modele (DeepSeek, Llama ve daha fazlası) erişirsiniz. OpenClaw OpenAI uyumlu uç noktayı kullanır (yalnızca sohbet tamamlamaları); metinden görsele, embeddings veya konuşma için HF inference clients doğrudan kullanın.- Sağlayıcı:
huggingface - Kimlik doğrulama:
HUGGINGFACE_HUB_TOKENveyaHF_TOKEN(Make calls to Inference Providers iznine sahip ayrıntılı token) - API: OpenAI uyumlu (
https://router.huggingface.co/v1) - Faturalandırma: Tek bir HF token; fiyatlandırma sağlayıcı ücretlerini izler ve ücretsiz bir katman içerir.
Hızlı başlangıç
- Hugging Face → Settings → Tokens adresinde Make calls to Inference Providers iznine sahip ayrıntılı bir token oluşturun.
- Onboarding’i çalıştırın, sağlayıcı açılır menüsünde Hugging Face seçin, ardından istendiğinde API anahtarınızı girin:
- Default Hugging Face model açılır menüsünde istediğiniz modeli seçin (geçerli bir token olduğunda liste Inference API’den yüklenir; aksi halde yerleşik bir liste gösterilir). Seçiminiz varsayılan model olarak kaydedilir.
- Varsayılan modeli daha sonra yapılandırmada da ayarlayabilir veya değiştirebilirsiniz:
Etkileşimsiz örnek
huggingface/deepseek-ai/DeepSeek-R1 modelini varsayılan model olarak ayarlar.
Ortam notu
Gateway bir daemon olarak çalışıyorsa (launchd/systemd), HUGGINGFACE_HUB_TOKEN veya HF_TOKEN değerinin
bu işlem için kullanılabilir olduğundan emin olun (örneğin ~/.openclaw/.env içinde veya
env.shellEnv aracılığıyla).
Model keşfi ve onboarding açılır menüsü
OpenClaw, Inference uç noktasını doğrudan çağırarak modelleri keşfeder:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN veya $HF_TOKEN gönderin; bazı uç noktalar kimlik doğrulama olmadan alt küme döndürür.) Yanıt, OpenAI tarzı { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } biçimindedir.
Bir Hugging Face API anahtarı yapılandırdığınızda (onboarding, HUGGINGFACE_HUB_TOKEN veya HF_TOKEN aracılığıyla), OpenClaw kullanılabilir sohbet tamamlama modellerini keşfetmek için bu GET isteğini kullanır. Etkileşimli kurulum sırasında, token’ınızı girdikten sonra bu listeden (veya istek başarısız olursa yerleşik katalogdan) doldurulan bir Default Hugging Face model açılır menüsü görürsünüz. Çalışma zamanında (örneğin Gateway başlangıcında), bir anahtar mevcutsa OpenClaw kataloğu yenilemek için yine GET https://router.huggingface.co/v1/models çağrısını yapar. Liste, bağlam penceresi ve maliyet gibi meta veriler için yerleşik bir katalogla birleştirilir. İstek başarısız olursa veya anahtar ayarlı değilse yalnızca yerleşik katalog kullanılır.
Model adları ve düzenlenebilir seçenekler
- API’den ad: Model görünen adı, API
name,titleveyadisplay_namedöndürdüğünde GET /v1/models üzerinden doldurulur; aksi halde model kimliğinden türetilir (örneğindeepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Görünen adı geçersiz kılma: CLI ve UI’da istediğiniz şekilde görünmesi için yapılandırmada model başına özel etiket ayarlayabilirsiniz:
-
İlke sonekleri: OpenClaw’un paketlenmiş Hugging Face belgeleri ve yardımcıları şu anda bu iki soneki yerleşik ilke varyantları olarak ele alır:
:fastest— en yüksek aktarım hızı.:cheapest— çıktı token başına en düşük maliyet.
models.providers.huggingface.modelsiçinde ayrı girdiler olarak ekleyebilir veyamodel.primarydeğerini sonek ile ayarlayabilirsiniz. Varsayılan sağlayıcı sıranızı Inference Provider settings içinde de ayarlayabilirsiniz (sonek yok = bu sırayı kullan). -
Yapılandırma birleştirme:
models.providers.huggingface.modelsiçindeki mevcut girdiler (örneğinmodels.jsoniçinde), yapılandırma birleştirildiğinde korunur. Bu nedenle orada ayarladığınız özelname,aliasveya model seçenekleri korunur.
Model kimlikleri ve yapılandırma örnekleri
Model başvurularıhuggingface/<org>/<model> biçimini kullanır (Hub tarzı kimlikler). Aşağıdaki liste GET https://router.huggingface.co/v1/models kaynağındandır; kataloğunuz daha fazlasını içerebilir.
Örnek kimlikler (inference uç noktasından):
| Model | Ref (huggingface/ ile başlayın) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest veya :cheapest ekleyebilirsiniz. Varsayılan sıranızı Inference Provider settings içinde ayarlayın; tam liste için Inference Providers ve GET https://router.huggingface.co/v1/models kaynaklarına bakın.
Tam yapılandırma örnekleri
Birincil DeepSeek R1, yedek olarak Qwen ile::cheapest ve :fastest varyantlarıyla: