Hugging Face (Inference)
Hugging Face Inference Providers menawarkan chat completion yang kompatibel dengan OpenAI melalui satu API router. Anda mendapatkan akses ke banyak model (DeepSeek, Llama, dan lainnya) dengan satu token. OpenClaw menggunakan endpoint yang kompatibel dengan OpenAI (hanya chat completion); untuk text-to-image, embeddings, atau speech gunakan klien inference HF secara langsung.- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENatauHF_TOKEN(token fine-grained dengan izin Make calls to Inference Providers) - API: kompatibel dengan OpenAI (
https://router.huggingface.co/v1) - Billing: Satu token HF; pricing mengikuti tarif provider dengan tier gratis.
Memulai
Buat token fine-grained
Buka Hugging Face Settings Tokens dan buat token fine-grained baru.
Jalankan onboarding
Pilih Hugging Face di dropdown provider, lalu masukkan kunci API Anda saat diminta:
Pilih model default
Di dropdown Default Hugging Face model, pilih model yang Anda inginkan. Daftar ini dimuat dari Inference API saat Anda memiliki token yang valid; jika tidak, daftar bawaan akan ditampilkan. Pilihan Anda disimpan sebagai model default.Anda juga dapat menetapkan atau mengubah model default nanti di config:
Setup non-interaktif
huggingface/deepseek-ai/DeepSeek-R1 sebagai model default.
ID model
Ref model menggunakan formathuggingface/<org>/<model> (ID bergaya Hub). Daftar di bawah ini berasal dari GET https://router.huggingface.co/v1/models; katalog Anda mungkin mencakup lebih banyak.
| Model | Ref (awali dengan huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
Detail lanjutan
Discovery model dan dropdown onboarding
Discovery model dan dropdown onboarding
OpenClaw menemukan model dengan memanggil endpoint Inference secara langsung:(Opsional: kirim
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN atau $HF_TOKEN untuk daftar lengkap; beberapa endpoint mengembalikan subset tanpa auth.) Responsnya bergaya OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.Saat Anda mengonfigurasi kunci API Hugging Face (melalui onboarding, HUGGINGFACE_HUB_TOKEN, atau HF_TOKEN), OpenClaw menggunakan GET ini untuk menemukan model chat-completion yang tersedia. Selama setup interaktif, setelah Anda memasukkan token, Anda akan melihat dropdown Default Hugging Face model yang diisi dari daftar tersebut (atau katalog bawaan jika permintaan gagal). Saat runtime (misalnya startup Gateway), ketika kunci tersedia, OpenClaw kembali memanggil GET https://router.huggingface.co/v1/models untuk menyegarkan katalog. Daftar tersebut digabungkan dengan katalog bawaan (untuk metadata seperti context window dan biaya). Jika permintaan gagal atau tidak ada kunci yang ditetapkan, hanya katalog bawaan yang digunakan.Nama model, alias, dan sufiks kebijakan
Nama model, alias, dan sufiks kebijakan
- Nama dari API: Nama tampilan model diisi dari GET /v1/models saat API mengembalikan
name,title, ataudisplay_name; jika tidak, nama tersebut diturunkan dari ID model (misalnyadeepseek-ai/DeepSeek-R1menjadi “DeepSeek R1”). - Override nama tampilan: Anda dapat menetapkan label kustom per model di config agar tampil sesuai yang Anda inginkan di CLI dan UI:
-
Sufiks kebijakan: Dokumen dan helper Hugging Face bawaan OpenClaw saat ini memperlakukan dua sufiks ini sebagai varian kebijakan bawaan:
:fastest— throughput tertinggi.:cheapest— biaya terendah per token output.
models.providers.huggingface.modelsatau menetapkanmodel.primarydengan sufiks tersebut. Anda juga dapat menetapkan urutan provider default Anda di Inference Provider settings (tanpa sufiks = gunakan urutan tersebut). -
Penggabungan config: Entri yang sudah ada di
models.providers.huggingface.models(misalnya dimodels.json) tetap dipertahankan saat config digabungkan. Jadi setiapname,alias, atau opsi model kustom yang Anda tetapkan di sana akan dipertahankan.
Environment dan setup daemon
Environment dan setup daemon
Jika Gateway berjalan sebagai daemon (launchd/systemd), pastikan
HUGGINGFACE_HUB_TOKEN atau HF_TOKEN tersedia untuk proses tersebut (misalnya, di ~/.openclaw/.env atau melalui env.shellEnv).OpenClaw menerima
HUGGINGFACE_HUB_TOKEN dan HF_TOKEN sebagai alias env var. Keduanya dapat digunakan; jika keduanya ditetapkan, HUGGINGFACE_HUB_TOKEN diprioritaskan.Config: DeepSeek R1 dengan fallback Qwen
Config: DeepSeek R1 dengan fallback Qwen
Config: Qwen dengan varian cheapest dan fastest
Config: Qwen dengan varian cheapest dan fastest
Config: DeepSeek + Llama + GPT-OSS dengan alias
Config: DeepSeek + Llama + GPT-OSS dengan alias
Config: Beberapa Qwen dan DeepSeek dengan sufiks kebijakan
Config: Beberapa Qwen dan DeepSeek dengan sufiks kebijakan
Terkait
Provider model
Gambaran umum semua provider, ref model, dan perilaku failover.
Pemilihan model
Cara memilih dan mengonfigurasi model.
Dokumen Inference Providers
Dokumentasi resmi Hugging Face Inference Providers.
Konfigurasi
Referensi config lengkap.