vLLM
يمكن لـ vLLM تقديم نماذج مفتوحة المصدر (وبعض النماذج المخصصة) عبر واجهة HTTP API متوافقة مع OpenAI. ويمكن لـ OpenClaw الاتصال بـ vLLM باستخدام API من نوعopenai-completions.
يمكن لـ OpenClaw أيضًا اكتشاف النماذج المتاحة تلقائيًا من vLLM عندما تشترك في ذلك عبر VLLM_API_KEY (أي قيمة تعمل إذا كان خادمك لا يفرض المصادقة) ولا تعرّف إدخال models.providers.vllm صريحًا.
البدء السريع
- ابدأ تشغيل vLLM باستخدام خادم متوافق مع OpenAI.
/v1 (مثل /v1/models و/v1/chat/completions). يعمل vLLM غالبًا على:
http://127.0.0.1:8000/v1
- اشترك في الميزة (أي قيمة تعمل إذا لم يتم تكوين مصادقة):
- اختر نموذجًا (استبدله بأحد معرّفات نماذج vLLM لديك):
اكتشاف النموذج (مزوّد ضمني)
عندما تكونVLLM_API_KEY معيّنة (أو يوجد ملف تعريف مصادقة) ولا تعرّف models.providers.vllm، سيستعلم OpenClaw من:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm صراحةً، فسيتم تخطي الاكتشاف التلقائي ويجب عليك تعريف النماذج يدويًا.
التكوين الصريح (نماذج يدوية)
استخدم التكوين الصريح عندما:- يعمل vLLM على مضيف/منفذ مختلف.
- تريد تثبيت قيم
contextWindow/maxTokens. - يتطلب خادمك مفتاح API حقيقيًا (أو تريد التحكم في الرؤوس).
استكشاف الأخطاء وإصلاحها
- تحقق من إمكانية الوصول إلى الخادم:
- إذا فشلت الطلبات بسبب أخطاء مصادقة، فعيّن
VLLM_API_KEYحقيقيًا يطابق تكوين خادمك، أو قم بتكوين المزوّد صراحةً تحتmodels.providers.vllm.
سلوك شبيه بالـ proxy
يُعامل vLLM على أنه واجهة خلفية من نوع proxy متوافقة مع OpenAI/v1، وليس
نقطة نهاية OpenAI أصلية.
- لا ينطبق هنا تشكيل الطلبات الخاص بـ OpenAI الأصلية فقط
- لا يوجد
service_tier، ولاstoreالخاصة بـ Responses، ولا تلميحات ذاكرة التخزين المؤقت للمطالبات، ولا تشكيل حمولات reasoning-compat الخاصة بـ OpenAI - لا يتم حقن رؤوس الإسناد المخفية الخاصة بـ OpenClaw (
originatorوversionوUser-Agent) على عناوين URL الأساسية المخصصة لـ vLLM