Hugging Face (Inference)
توفّر Hugging Face Inference Providers واجهة إكمالات دردشة متوافقة مع OpenAI عبر API موجه واحد. وهذا يمنحك إمكانية الوصول إلى العديد من النماذج (DeepSeek وLlama وغيرهما) باستخدام رمز واحد. يستخدم OpenClaw نقطة النهاية المتوافقة مع OpenAI (إكمالات الدردشة فقط)؛ أما لتحويل النص إلى صورة، أو التضمينات، أو الكلام فاستخدم عملاء HF inference مباشرة.- المزود:
huggingface - المصادقة:
HUGGINGFACE_HUB_TOKENأوHF_TOKEN(رمز دقيق الصلاحيات مع إذن Make calls to Inference Providers) - API: متوافق مع OpenAI (
https://router.huggingface.co/v1) - الفوترة: رمز HF واحد؛ الأسعار تتبع أسعار المزود مع فئة مجانية.
البدء
أنشئ رمزًا دقيق الصلاحيات
انتقل إلى Hugging Face Settings Tokens وأنشئ رمزًا جديدًا دقيق الصلاحيات.
شغّل الإعداد الأولي
اختر Hugging Face من القائمة المنسدلة للمزود، ثم أدخل مفتاح API عند مطالبتك بذلك:
اختر نموذجًا افتراضيًا
من القائمة المنسدلة Default Hugging Face model، اختر النموذج الذي تريده. يتم تحميل القائمة من Inference API عندما يكون لديك رمز صالح؛ وإلا فستُعرض قائمة مدمجة. يتم حفظ اختيارك كنموذج افتراضي.يمكنك أيضًا تعيين النموذج الافتراضي أو تغييره لاحقًا في الإعدادات:
الإعداد غير التفاعلي
huggingface/deepseek-ai/DeepSeek-R1 كنموذج افتراضي.
معرّفات النماذج
تستخدم مراجع النماذج الصيغةhuggingface/<org>/<model> (معرّفات بنمط Hub). القائمة أدناه مأخوذة من GET https://router.huggingface.co/v1/models؛ وقد يتضمن الفهرس لديك المزيد.
| النموذج | المرجع (أضف البادئة huggingface/) |
|---|---|
| DeepSeek R1 | deepseek-ai/DeepSeek-R1 |
| DeepSeek V3.2 | deepseek-ai/DeepSeek-V3.2 |
| Qwen3 8B | Qwen/Qwen3-8B |
| Qwen2.5 7B Instruct | Qwen/Qwen2.5-7B-Instruct |
| Qwen3 32B | Qwen/Qwen3-32B |
| Llama 3.3 70B Instruct | meta-llama/Llama-3.3-70B-Instruct |
| Llama 3.1 8B Instruct | meta-llama/Llama-3.1-8B-Instruct |
| GPT-OSS 120B | openai/gpt-oss-120b |
| GLM 4.7 | zai-org/GLM-4.7 |
| Kimi K2.5 | moonshotai/Kimi-K2.5 |
تفاصيل متقدمة
اكتشاف النماذج والقائمة المنسدلة في الإعداد الأولي
اكتشاف النماذج والقائمة المنسدلة في الإعداد الأولي
يكتشف OpenClaw النماذج عن طريق استدعاء نقطة نهاية Inference مباشرة:(اختياري: أرسل
Authorization: Bearer $HUGGINGFACE_HUB_TOKEN أو $HF_TOKEN للحصول على القائمة الكاملة؛ إذ تعرض بعض نقاط النهاية مجموعة فرعية بدون مصادقة.) تكون الاستجابة بأسلوب OpenAI على هيئة { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }.عندما تضبط مفتاح API لـ Hugging Face (عبر الإعداد الأولي، أو HUGGINGFACE_HUB_TOKEN، أو HF_TOKEN)، يستخدم OpenClaw هذا الطلب GET لاكتشاف نماذج إكمال الدردشة المتاحة. أثناء الإعداد التفاعلي، بعد إدخال الرمز الخاص بك سترى قائمة منسدلة باسم Default Hugging Face model يتم تعبئتها من تلك القائمة (أو من الفهرس المدمج إذا فشل الطلب). أثناء التشغيل (مثل بدء Gateway)، وعند وجود مفتاح، يستدعي OpenClaw مرة أخرى GET https://router.huggingface.co/v1/models لتحديث الفهرس. يتم دمج القائمة مع فهرس مدمج (لبيانات وصفية مثل نافذة السياق والتكلفة). وإذا فشل الطلب أو لم يتم تعيين مفتاح، فسيتم استخدام الفهرس المدمج فقط.أسماء النماذج، والأسماء المستعارة، ولواحق السياسات
أسماء النماذج، والأسماء المستعارة، ولواحق السياسات
- الاسم من API: يتم ملء اسم عرض النموذج من GET /v1/models عندما يعيد API الحقول
nameأوtitleأوdisplay_name؛ وإلا فسيتم اشتقاقه من معرّف النموذج (مثلًا، يتحولdeepseek-ai/DeepSeek-R1إلى “DeepSeek R1”). - تجاوز اسم العرض: يمكنك تعيين تسمية مخصصة لكل نموذج بحيث يظهر بالطريقة التي تريدها في CLI وواجهة المستخدم:
-
لواحق السياسات: تتعامل مستندات وأدوات Hugging Face المدمجة في OpenClaw حاليًا مع هاتين اللاحقتين بوصفهما متغيري السياسة المدمجين:
:fastest— أعلى معدل معالجة.:cheapest— أقل تكلفة لكل رمز إخراج.
models.providers.huggingface.modelsأو تعيينmodel.primaryمع اللاحقة. ويمكنك أيضًا تعيين ترتيب المزود الافتراضي في Inference Provider settings (بدون لاحقة = استخدم ذلك الترتيب). -
دمج الإعدادات: يتم الاحتفاظ بالإدخالات الموجودة في
models.providers.huggingface.models(مثلًا فيmodels.json) عند دمج الإعدادات. لذلك يتم الحفاظ على أيnameأوaliasأو خيارات نموذج مخصصة تضبطها هناك.
البيئة وإعداد daemon
البيئة وإعداد daemon
إذا كان Gateway يعمل كخدمة daemon (launchd/systemd)، فتأكد من أن
HUGGINGFACE_HUB_TOKEN أو HF_TOKEN متاحان لتلك العملية (على سبيل المثال، في ~/.openclaw/.env أو عبر env.shellEnv).يقبل OpenClaw كلاً من
HUGGINGFACE_HUB_TOKEN وHF_TOKEN كأسماء بديلة لمتغير البيئة. أيٌّ منهما يعمل؛ وإذا تم تعيينهما معًا، تكون الأولوية لـ HUGGINGFACE_HUB_TOKEN.الإعداد: DeepSeek R1 مع بديل احتياطي من Qwen
الإعداد: DeepSeek R1 مع بديل احتياطي من Qwen
الإعداد: Qwen مع متغيري cheapest وfastest
الإعداد: Qwen مع متغيري cheapest وfastest
الإعداد: DeepSeek + Llama + GPT-OSS مع أسماء مستعارة
الإعداد: DeepSeek + Llama + GPT-OSS مع أسماء مستعارة
الإعداد: عدة نماذج Qwen وDeepSeek مع لواحق السياسات
الإعداد: عدة نماذج Qwen وDeepSeek مع لواحق السياسات
ذو صلة
مزودات النماذج
نظرة عامة على جميع المزودات، ومراجع النماذج، وسلوك التحويل الاحتياطي.
اختيار النموذج
كيفية اختيار النماذج وإعدادها.
مستندات Inference Providers
مستندات Hugging Face Inference Providers الرسمية.
الإعدادات
المرجع الكامل للإعدادات.