Hugging Face Inference Providers ให้บริการ chat completions ที่เข้ากันได้กับ OpenAI ผ่าน router API เดียว คุณสามารถเข้าถึงหลายโมเดลได้ (เช่น DeepSeek, Llama และอื่น ๆ) ด้วยโทเค็นเพียงตัวเดียว OpenClaw ใช้ endpoint ที่เข้ากันได้กับ OpenAI (เฉพาะ chat completions เท่านั้น); สำหรับ text-to-image, embeddings หรือ speech ให้ใช้ HF inference clients โดยตรงDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
- Provider:
huggingface - Auth:
HUGGINGFACE_HUB_TOKENหรือHF_TOKEN(fine-grained token ที่มีสิทธิ์ Make calls to Inference Providers) - API: แบบเข้ากันได้กับ OpenAI (
https://router.huggingface.co/v1) - การเรียกเก็บเงิน: HF token ตัวเดียว; ราคา เป็นไปตามอัตราของ provider พร้อม free tier
เริ่มต้นใช้งาน
สร้าง fine-grained token
ไปที่ Hugging Face Settings Tokens แล้วสร้าง fine-grained token ใหม่
เรียกใช้ onboarding
เลือก Hugging Face ในเมนูดรอปดาวน์ provider แล้วกรอก API key ของคุณเมื่อระบบถาม:
เลือกโมเดลเริ่มต้น
ในเมนูดรอปดาวน์ Default Hugging Face model ให้เลือกโมเดลที่คุณต้องการ รายการนี้จะโหลดจาก Inference API เมื่อคุณมีโทเค็นที่ถูกต้อง; มิฉะนั้นจะแสดงรายการในตัว ตัวเลือกของคุณจะถูกบันทึกเป็นโมเดลเริ่มต้นคุณยังสามารถตั้งค่าหรือเปลี่ยนโมเดลเริ่มต้นภายหลังในคอนฟิกได้:
การตั้งค่าแบบ non-interactive
huggingface/deepseek-ai/DeepSeek-R1 เป็นโมเดลเริ่มต้น
รหัสโมเดล
model ref ใช้รูปแบบhuggingface/<org>/<model> (Hub-style ID) รายการด้านล่างมาจาก GET https://router.huggingface.co/v1/models; แค็ตตาล็อกของคุณอาจมีมากกว่านี้
| Model | Ref (เติมคำนำหน้าด้วย huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
การกำหนดค่าขั้นสูง
การค้นหาโมเดลและดรอปดาวน์ onboarding
การค้นหาโมเดลและดรอปดาวน์ onboarding
OpenClaw ค้นหาโมเดลโดยเรียก Inference endpoint โดยตรง:(ไม่บังคับ: ส่ง
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN หรือ $HF_TOKEN เพื่อรับรายการแบบเต็ม; บาง endpoint จะส่งคืนเพียงบางส่วนหากไม่มี auth) การตอบกลับเป็นแบบ OpenAI-style { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }เมื่อคุณกำหนดค่า Hugging Face API key (ผ่าน onboarding, HUGGINGFACE_HUB_TOKEN หรือ HF_TOKEN) OpenClaw จะใช้ GET นี้เพื่อค้นหาโมเดล chat-completion ที่พร้อมใช้งาน ระหว่าง การตั้งค่าแบบโต้ตอบ หลังจากคุณกรอกโทเค็นแล้ว คุณจะเห็นเมนูดรอปดาวน์ Default Hugging Face model ที่เติมข้อมูลจากรายการนั้น (หรือจากแค็ตตาล็อกในตัวหากคำขอล้มเหลว) ที่ runtime (เช่น ตอน Gateway เริ่มทำงาน) เมื่อมี key อยู่ OpenClaw จะเรียก GET https://router.huggingface.co/v1/models อีกครั้งเพื่อรีเฟรชแค็ตตาล็อก รายการนี้จะถูกรวมกับแค็ตตาล็อกในตัว (สำหรับเมทาดาทา เช่น หน้าต่างบริบทและต้นทุน) หากคำขอล้มเหลวหรือไม่ได้ตั้งค่า key จะใช้เฉพาะแค็ตตาล็อกในตัวเท่านั้นชื่อโมเดล, alias และ suffix ของนโยบาย
ชื่อโมเดล, alias และ suffix ของนโยบาย
- ชื่อจาก API: ชื่อที่ใช้แสดงของโมเดลจะถูก เติมข้อมูลจาก GET /v1/models เมื่อ API ส่งคืน
name,titleหรือdisplay_name; มิฉะนั้นจะอนุมานจาก model id (เช่นdeepseek-ai/DeepSeek-R1จะกลายเป็น “DeepSeek R1”) - override ชื่อที่ใช้แสดง: คุณสามารถตั้งป้ายชื่อแบบกำหนดเองต่อโมเดลในคอนฟิกได้ เพื่อให้แสดงตามที่คุณต้องการใน CLI และ UI:
-
suffix ของนโยบาย: เอกสารและ helper ของ Hugging Face แบบ bundled ใน OpenClaw ปัจจุบันถือว่า suffix สองตัวนี้เป็นตัวแปรนโยบายในตัว:
:fastest— throughput สูงสุด:cheapest— ต้นทุนต่อ output token ต่ำสุด
models.providers.huggingface.modelsหรือตั้งmodel.primaryพร้อม suffix ได้ คุณยังสามารถตั้งค่าลำดับ provider เริ่มต้นของคุณได้ใน Inference Provider settings (ไม่มี suffix = ใช้ลำดับนั้น) -
การรวมคอนฟิก: รายการที่มีอยู่เดิมใน
models.providers.huggingface.models(เช่น ในmodels.json) จะยังคงอยู่เมื่อมีการรวมคอนฟิก ดังนั้นname,aliasหรือ model option แบบกำหนดเองที่คุณตั้งไว้จะยังคงถูกรักษาไว้
การตั้งค่า environment และ daemon
การตั้งค่า environment และ daemon
หาก Gateway ทำงานเป็น daemon (launchd/systemd) โปรดตรวจสอบให้แน่ใจว่า
HUGGINGFACE_HUB_TOKEN หรือ HF_TOKEN พร้อมใช้งานสำหรับ process นั้น (เช่น ใน ~/.openclaw/.env หรือผ่าน env.shellEnv)OpenClaw รองรับทั้ง
HUGGINGFACE_HUB_TOKEN และ HF_TOKEN ในฐานะชื่อแทนของตัวแปร env ใช้ตัวใดก็ได้; หากตั้งค่าทั้งสองตัว HUGGINGFACE_HUB_TOKEN จะมีลำดับความสำคัญสูงกว่าคอนฟิก: DeepSeek R1 พร้อม fallback เป็น Qwen
คอนฟิก: DeepSeek R1 พร้อม fallback เป็น Qwen
คอนฟิก: Qwen พร้อมตัวแปร cheapest และ fastest
คอนฟิก: Qwen พร้อมตัวแปร cheapest และ fastest
คอนฟิก: DeepSeek + Llama + GPT-OSS พร้อม alias
คอนฟิก: DeepSeek + Llama + GPT-OSS พร้อม alias
คอนฟิก: Qwen และ DeepSeek หลายตัวพร้อม suffix ของนโยบาย
คอนฟิก: Qwen และ DeepSeek หลายตัวพร้อม suffix ของนโยบาย
ที่เกี่ยวข้อง
การเลือกโมเดล
ภาพรวมของ provider ทั้งหมด, model ref และพฤติกรรม failover
การเลือกโมเดล
วิธีเลือกและกำหนดค่าโมเดล
เอกสาร Inference Providers
เอกสารทางการของ Hugging Face Inference Providers
Configuration
ข้อมูลอ้างอิงคอนฟิกแบบเต็ม