Ana içeriğe atla

Hugging Face (Inference)

Hugging Face Inference Providers, tek bir yönlendirici API üzerinden OpenAI uyumlu sohbet tamamlama sunar. Tek bir token ile birçok modele (DeepSeek, Llama ve daha fazlası) erişirsiniz. OpenClaw OpenAI uyumlu uç noktayı kullanır (yalnızca sohbet tamamlama); metinden görüntüye, gömmeler veya konuşma için HF inference clients doğrudan kullanın.
  • Sağlayıcı: huggingface
  • Kimlik doğrulama: HUGGINGFACE_HUB_TOKEN veya HF_TOKEN (Make calls to Inference Providers iznine sahip ayrıntılı yetkili token)
  • API: OpenAI uyumlu (https://router.huggingface.co/v1)
  • Faturalandırma: Tek bir HF token; fiyatlandırma sağlayıcı ücretlerini izler ve ücretsiz katman içerir.

Başlangıç

1

Ayrıntılı yetkili bir token oluşturun

Hugging Face Settings Tokens sayfasına gidin ve yeni bir ayrıntılı yetkili token oluşturun.
Token’da Make calls to Inference Providers izni etkin olmalıdır, aksi halde API istekleri reddedilir.
2

Onboarding çalıştırın

Sağlayıcı açılır menüsünde Hugging Face seçin, ardından istendiğinde API anahtarınızı girin:
openclaw onboard --auth-choice huggingface-api-key
3

Varsayılan bir model seçin

Default Hugging Face model açılır menüsünde istediğiniz modeli seçin. Geçerli bir token’ınız varsa liste Inference API’den yüklenir; aksi halde yerleşik bir liste gösterilir. Seçiminiz varsayılan model olarak kaydedilir.Varsayılan modeli daha sonra yapılandırmada da ayarlayabilir veya değiştirebilirsiniz:
{
  agents: {
    defaults: {
      model: { primary: "huggingface/deepseek-ai/DeepSeek-R1" },
    },
  },
}
4

Modelin kullanılabilir olduğunu doğrulayın

openclaw models list --provider huggingface

Etkileşimsiz kurulum

openclaw onboard --non-interactive \
  --mode local \
  --auth-choice huggingface-api-key \
  --huggingface-api-key "$HF_TOKEN"
Bu, varsayılan model olarak huggingface/deepseek-ai/DeepSeek-R1 ayarlar.

Model kimlikleri

Model başvuruları huggingface/<org>/<model> biçimini kullanır (Hub tarzı kimlikler). Aşağıdaki liste GET https://router.huggingface.co/v1/models çıktısındandır; kataloğunuz daha fazlasını içerebilir.
ModelRef (başına huggingface/ ekleyin)
DeepSeek R1deepseek-ai/DeepSeek-R1
DeepSeek V3.2deepseek-ai/DeepSeek-V3.2
Qwen3 8BQwen/Qwen3-8B
Qwen2.5 7B InstructQwen/Qwen2.5-7B-Instruct
Qwen3 32BQwen/Qwen3-32B
Llama 3.3 70B Instructmeta-llama/Llama-3.3-70B-Instruct
Llama 3.1 8B Instructmeta-llama/Llama-3.1-8B-Instruct
GPT-OSS 120Bopenai/gpt-oss-120b
GLM 4.7zai-org/GLM-4.7
Kimi K2.5moonshotai/Kimi-K2.5
Herhangi bir model kimliğine :fastest veya :cheapest ekleyebilirsiniz. Varsayılan sıranızı Inference Provider settings içinde ayarlayın; tam liste için Inference Providers ve GET https://router.huggingface.co/v1/models belgelerine bakın.

Gelişmiş ayrıntılar

OpenClaw modelleri Inference uç noktasını doğrudan çağırarak bulur:
GET https://router.huggingface.co/v1/models
(İsteğe bağlı: tam liste için Authorization: Bearer $HUGGINGFACE_HUB_TOKEN veya $HF_TOKEN gönderin; bazı uç noktalar kimlik doğrulama olmadan alt küme döndürür.) Yanıt OpenAI tarzı { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] } biçimindedir.Bir Hugging Face API anahtarı yapılandırdığınızda (onboarding, HUGGINGFACE_HUB_TOKEN veya HF_TOKEN aracılığıyla), OpenClaw kullanılabilir chat-completion modellerini bulmak için bu GET çağrısını kullanır. Etkileşimli kurulum sırasında token’ınızı girdikten sonra, bu listeden (veya istek başarısız olursa yerleşik katalogdan) doldurulan bir Default Hugging Face model açılır menüsü görürsünüz. Çalışma zamanında (ör. Gateway başlangıcında), bir anahtar mevcutsa OpenClaw kataloğu yenilemek için tekrar GET https://router.huggingface.co/v1/models çağrısını yapar. Liste, yerleşik bir katalogla birleştirilir (bağlam penceresi ve maliyet gibi meta veriler için). İstek başarısız olursa veya anahtar ayarlı değilse yalnızca yerleşik katalog kullanılır.
  • API’den ad: API name, title veya display_name döndürdüğünde model görünen adı GET /v1/models yanıtından doldurulur; aksi halde model kimliğinden türetilir (ör. deepseek-ai/DeepSeek-R1, “DeepSeek R1” olur).
  • Görünen adı geçersiz kıl: CLI ve kullanıcı arayüzünde istediğiniz şekilde görünmesi için yapılandırmada model başına özel bir etiket ayarlayabilirsiniz:
{
  agents: {
    defaults: {
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1 (hızlı)" },
        "huggingface/deepseek-ai/DeepSeek-R1:cheapest": { alias: "DeepSeek R1 (ucuz)" },
      },
    },
  },
}
  • İlke son ekleri: OpenClaw’ın paketlenmiş Hugging Face belgeleri ve yardımcıları şu anda bu iki son eki yerleşik ilke varyantları olarak ele alır:
    • :fastest — en yüksek çıktı hacmi.
    • :cheapest — çıktı token’ı başına en düşük maliyet.
    Bunları models.providers.huggingface.models içinde ayrı girdiler olarak ekleyebilir veya model.primary değerini son ekle ayarlayabilirsiniz. Varsayılan sağlayıcı sıranızı Inference Provider settings içinde de ayarlayabilirsiniz (son ek yoksa = bu sırayı kullan).
  • Yapılandırma birleştirme: models.providers.huggingface.models içindeki mevcut girdiler (models.json içindekiler gibi), yapılandırma birleştirildiğinde korunur. Bu yüzden orada ayarladığınız özel name, alias veya model seçenekleri korunur.
Gateway bir daemon (launchd/systemd) olarak çalışıyorsa, HUGGINGFACE_HUB_TOKEN veya HF_TOKEN değerinin o süreç için kullanılabilir olduğundan emin olun (örneğin ~/.openclaw/.env içinde veya env.shellEnv aracılığıyla).
OpenClaw, HUGGINGFACE_HUB_TOKEN ve HF_TOKEN değerlerinin her ikisini de ortam değişkeni takma adları olarak kabul eder. İkisinden biri yeterlidir; ikisi de ayarlıysa HUGGINGFACE_HUB_TOKEN önceliklidir.
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-R1",
        fallbacks: ["huggingface/Qwen/Qwen3-8B"],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-R1": { alias: "DeepSeek R1" },
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen3-8B" },
      models: {
        "huggingface/Qwen/Qwen3-8B": { alias: "Qwen3 8B" },
        "huggingface/Qwen/Qwen3-8B:cheapest": { alias: "Qwen3 8B (en ucuz)" },
        "huggingface/Qwen/Qwen3-8B:fastest": { alias: "Qwen3 8B (en hızlı)" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/deepseek-ai/DeepSeek-V3.2",
        fallbacks: [
          "huggingface/meta-llama/Llama-3.3-70B-Instruct",
          "huggingface/openai/gpt-oss-120b",
        ],
      },
      models: {
        "huggingface/deepseek-ai/DeepSeek-V3.2": { alias: "DeepSeek V3.2" },
        "huggingface/meta-llama/Llama-3.3-70B-Instruct": { alias: "Llama 3.3 70B" },
        "huggingface/openai/gpt-oss-120b": { alias: "GPT-OSS 120B" },
      },
    },
  },
}
{
  agents: {
    defaults: {
      model: { primary: "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest" },
      models: {
        "huggingface/Qwen/Qwen2.5-7B-Instruct": { alias: "Qwen2.5 7B" },
        "huggingface/Qwen/Qwen2.5-7B-Instruct:cheapest": { alias: "Qwen2.5 7B (ucuz)" },
        "huggingface/deepseek-ai/DeepSeek-R1:fastest": { alias: "DeepSeek R1 (hızlı)" },
        "huggingface/meta-llama/Llama-3.1-8B-Instruct": { alias: "Llama 3.1 8B" },
      },
    },
  },
}

İlgili

Model sağlayıcıları

Tüm sağlayıcılar, model başvuruları ve devralma davranışı hakkında genel bakış.

Model seçimi

Modellerin nasıl seçileceği ve yapılandırılacağı.

Inference Providers docs

Resmî Hugging Face Inference Providers belgeleri.

Yapılandırma

Tam yapılandırma başvurusu.