Hugging Face (Inference)
Hugging Face Inference Providers menawarkan chat completions yang kompatibel dengan OpenAI melalui satu API router. Anda mendapatkan akses ke banyak model (DeepSeek, Llama, dan lainnya) dengan satu token. OpenClaw menggunakan endpoint yang kompatibel dengan OpenAI (hanya chat completions); untuk text-to-image, embeddings, atau speech gunakan klien inference HF secara langsung.- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENatauHF_TOKEN(token fine-grained dengan izin Make calls to Inference Providers) - API: kompatibel dengan OpenAI (
https://router.huggingface.co/v1) - Penagihan: Satu token HF; harga mengikuti tarif provider dengan tier gratis.
Mulai cepat
- Buat token fine-grained di Hugging Face → Settings → Tokens dengan izin Make calls to Inference Providers.
- Jalankan onboarding dan pilih Hugging Face di dropdown provider, lalu masukkan kunci API Anda saat diminta:
- Di dropdown Default Hugging Face model, pilih model yang Anda inginkan (daftar dimuat dari Inference API saat Anda memiliki token yang valid; jika tidak, daftar bawaan akan ditampilkan). Pilihan Anda disimpan sebagai model default.
- Anda juga dapat menetapkan atau mengubah model default nanti di konfigurasi:
Contoh non-interaktif
huggingface/deepseek-ai/DeepSeek-R1 sebagai model default.
Catatan lingkungan
Jika Gateway berjalan sebagai daemon (launchd/systemd), pastikanHUGGINGFACE_HUB_TOKEN atau HF_TOKEN
tersedia untuk proses tersebut (misalnya, di ~/.openclaw/.env atau melalui
env.shellEnv).
Penemuan model dan dropdown onboarding
OpenClaw menemukan model dengan memanggil endpoint Inference secara langsung:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN atau $HF_TOKEN untuk daftar lengkap; beberapa endpoint mengembalikan subset tanpa auth.) Responsnya bergaya OpenAI { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.
Saat Anda mengonfigurasi kunci API Hugging Face (melalui onboarding, HUGGINGFACE_HUB_TOKEN, atau HF_TOKEN), OpenClaw menggunakan GET ini untuk menemukan model chat-completion yang tersedia. Selama penyiapan interaktif, setelah Anda memasukkan token, Anda akan melihat dropdown Default Hugging Face model yang diisi dari daftar tersebut (atau katalog bawaan jika permintaan gagal). Saat runtime (misalnya startup Gateway), ketika kunci tersedia, OpenClaw kembali memanggil GET https://router.huggingface.co/v1/models untuk menyegarkan katalog. Daftar ini digabungkan dengan katalog bawaan (untuk metadata seperti jendela konteks dan biaya). Jika permintaan gagal atau tidak ada kunci yang disetel, hanya katalog bawaan yang digunakan.
Nama model dan opsi yang dapat diedit
- Nama dari API: Nama tampilan model di-hydrate dari GET /v1/models saat API mengembalikan
name,title, ataudisplay_name; jika tidak, nama diturunkan dari ID model (misalnyadeepseek-ai/DeepSeek-R1→ “DeepSeek R1”). - Override nama tampilan: Anda dapat menetapkan label kustom per model agar tampil sesuai keinginan Anda di CLI dan UI:
-
Sufiks kebijakan: Dokumen dan helper Hugging Face bawaan OpenClaw saat ini memperlakukan dua sufiks ini sebagai varian kebijakan bawaan:
:fastest— throughput tertinggi.:cheapest— biaya per token output terendah.
models.providers.huggingface.modelsatau menetapkanmodel.primarydengan sufiks tersebut. Anda juga dapat menetapkan urutan provider default Anda di pengaturan Inference Provider (tanpa sufiks = gunakan urutan tersebut). -
Penggabungan konfigurasi: Entri yang sudah ada di
models.providers.huggingface.models(misalnya dimodels.json) dipertahankan saat konfigurasi digabungkan. Jadiname,alias, atau opsi model kustom apa pun yang Anda setel di sana akan tetap dipertahankan.
ID model dan contoh konfigurasi
Referensi model menggunakan bentukhuggingface/<org>/<model> (ID bergaya Hub). Daftar di bawah ini berasal dari GET https://router.huggingface.co/v1/models; katalog Anda mungkin mencakup lebih banyak.
Contoh ID (dari endpoint inference):
| Model | Ref (awali dengan huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
:fastest atau :cheapest ke ID model. Tetapkan urutan default Anda di pengaturan Inference Provider; lihat Inference Providers dan GET https://router.huggingface.co/v1/models untuk daftar lengkap.