vLLM
يمكن لـ vLLM تقديم نماذج مفتوحة المصدر (وبعض النماذج المخصصة) عبر HTTP API متوافق مع OpenAI. يتصل OpenClaw بـ vLLM باستخدام API openai-completions.
يمكن لـ OpenClaw أيضًا اكتشاف النماذج المتاحة تلقائيًا من vLLM عندما تشترك صراحةً باستخدام VLLM_API_KEY (أي قيمة تعمل إذا كان خادمك لا يفرض المصادقة) ولا تعرّف إدخال models.providers.vllm صريحًا.
| الخاصية | القيمة |
|---|---|
| معرّف المزود | vllm |
| API | openai-completions (متوافق مع OpenAI) |
| المصادقة | متغير البيئة VLLM_API_KEY |
| عنوان URL الأساسي الافتراضي | http://127.0.0.1:8000/v1 |
البدء
شغّل vLLM مع خادم متوافق مع OpenAI
يجب أن يكشف عنوان URL الأساسي لديك عن نقاط نهاية
/v1 (مثل /v1/models و/v1/chat/completions). يعمل vLLM عادة على:اكتشاف النماذج (المزود الضمني)
عند تعيينVLLM_API_KEY (أو وجود ملف تعريف مصادقة) وعدم تعريف models.providers.vllm، يستعلم OpenClaw عن:
إذا عيّنت
models.providers.vllm صراحةً، فسيتم تخطي الاكتشاف التلقائي ويجب عليك تعريف النماذج يدويًا.الإعداد الصريح (نماذج يدوية)
استخدم الإعداد الصريح عندما:- يعمل vLLM على مضيف أو منفذ مختلف
- تريد تثبيت قيم
contextWindowأوmaxTokens - يتطلب خادمك مفتاح API حقيقيًا (أو تريد التحكم في الرؤوس)
ملاحظات متقدمة
سلوك بنمط proxy
سلوك بنمط proxy
يُعامَل vLLM كواجهة خلفية متوافقة مع OpenAI
/v1 بنمط proxy، وليس
كنقطة نهاية OpenAI أصلية. وهذا يعني:| السلوك | هل يُطبَّق؟ |
|---|---|
| تشكيل طلب OpenAI الأصلي | لا |
service_tier | لا يتم إرساله |
store في الاستجابات | لا يتم إرساله |
| تلميحات Prompt-cache | لا يتم إرسالها |
| تشكيل حمولة التوافق مع التفكير في OpenAI | لا يُطبَّق |
| رؤوس الإسناد المخفية الخاصة بـ OpenClaw | لا يتم حقنها على عناوين URL الأساسية المخصصة |
عنوان URL أساسي مخصص
عنوان URL أساسي مخصص
إذا كان خادم vLLM لديك يعمل على مضيف أو منفذ غير افتراضي، فعيّن
baseUrl في إعدادات المزود الصريحة:استكشاف الأخطاء وإصلاحها
الخادم غير قابل للوصول
الخادم غير قابل للوصول
تحقق من أن خادم vLLM يعمل ويمكن الوصول إليه:إذا ظهرت لك رسالة خطأ في الاتصال، فتحقق من المضيف، والمنفذ، ومن أن vLLM بدأ في وضع الخادم المتوافق مع OpenAI.
أخطاء المصادقة في الطلبات
أخطاء المصادقة في الطلبات
إذا فشلت الطلبات بأخطاء مصادقة، فعيّن
VLLM_API_KEY حقيقيًا يطابق إعدادات خادمك، أو قم بإعداد المزود صراحةً ضمن models.providers.vllm.لم يتم اكتشاف أي نماذج
لم يتم اكتشاف أي نماذج
يتطلب الاكتشاف التلقائي تعيين
VLLM_API_KEY وألا يوجد إدخال إعدادات صريح لـ models.providers.vllm. إذا كنت قد عرّفت المزود يدويًا، فسيتخطى OpenClaw الاكتشاف ويستخدم النماذج التي أعلنت عنها فقط.ذو صلة
اختيار النموذج
اختيار المزودات، ومراجع النماذج، وسلوك التحويل الاحتياطي.
OpenAI
مزود OpenAI الأصلي وسلوك المسار المتوافق مع OpenAI.
OAuth والمصادقة
تفاصيل المصادقة وقواعد إعادة استخدام بيانات الاعتماد.
استكشاف الأخطاء وإصلاحها
المشكلات الشائعة وكيفية حلها.