النماذج المحلية
التشغيل المحلي ممكن، لكن OpenClaw يتوقع سياقًا كبيرًا جدًا مع دفاعات قوية ضد حقن التلقين. البطاقات الصغيرة تؤدي إلى اقتطاع السياق وتُضعف الأمان. استهدف مستوى مرتفعًا: ما لا يقل عن جهازي Mac Studio مضبوطين إلى الحد الأقصى أو جهاز GPU مكافئ (~30 ألف دولار فأكثر). تعمل بطاقة 24 GB واحدة فقط مع التلقينات الأخف وبزمن استجابة أعلى. استخدم أكبر / النسخة الكاملة من النموذج التي يمكنك تشغيلها؛ فالنقاط المرجعية المكمّمة بقوة أو “الصغيرة” ترفع مخاطر حقن التلقين (راجع الأمان). إذا كنت تريد أقل إعداد محلي احتكاكًا، فابدأ بـ LM Studio أو Ollama واستخدمopenclaw onboard. هذه الصفحة هي الدليل العملي الموجّه لإعدادات التشغيل المحلية الأعلى فئة وخوادم OpenAI المحلية المخصّصة المتوافقة.
الموصى به: LM Studio + نموذج محلي كبير (Responses API)
أفضل إعداد محلي حاليًا. حمّل نموذجًا كبيرًا في LM Studio (على سبيل المثال، إصدارًا كامل الحجم من Qwen أو DeepSeek أو Llama)، وفعّل الخادم المحلي (الافتراضيhttp://127.0.0.1:1234)، واستخدم Responses API لإبقاء الاستدلال منفصلًا عن النص النهائي.
- ثبّت LM Studio: https://lmstudio.ai
- في LM Studio، نزّل أكبر إصدار نموذج متاح (وتجنب الإصدارات “الصغيرة” أو المكمّمة بشدة)، ثم شغّل الخادم، وتأكد من أن
http://127.0.0.1:1234/v1/modelsيعرضه. - استبدل
my-local-modelبمعرّف النموذج الفعلي الظاهر في LM Studio. - أبقِ النموذج محمّلًا؛ فالتحميل البارد يضيف زمن بدء تشغيل.
- عدّل
contextWindowوmaxTokensإذا كان إصدار LM Studio لديك مختلفًا. - بالنسبة إلى WhatsApp، التزم باستخدام Responses API حتى يتم إرسال النص النهائي فقط.
models.mode: "merge" حتى تظل خيارات الرجوع الاحتياطي متاحة.
إعداد هجين: نموذج مستضاف أساسي، ورجوع احتياطي محلي
إعداد محلي أولًا مع شبكة أمان مستضافة
بدّل ترتيب النموذج الأساسي وخيارات الرجوع الاحتياطي؛ وأبقِ كتلة providers نفسها معmodels.mode: "merge" حتى تتمكن من الرجوع إلى Sonnet أو Opus عندما يتوقف الجهاز المحلي.
الاستضافة الإقليمية / توجيه البيانات
- تتوفر أيضًا إصدارات MiniMax/Kimi/GLM المستضافة على OpenRouter مع نقاط نهاية مثبتة على مناطق محددة (مثل الاستضافة داخل الولايات المتحدة). اختر الإصدار الإقليمي هناك للحفاظ على حركة البيانات داخل النطاق القضائي الذي تريده مع الاستمرار في استخدام
models.mode: "merge"لخيارات الرجوع الاحتياطي من Anthropic/OpenAI. - يظل التشغيل المحلي فقط هو أقوى مسار للخصوصية؛ أما التوجيه الإقليمي المستضاف فهو حل وسط عندما تحتاج ميزات المزود ولكنك تريد التحكم في تدفق البيانات.
خوادم وكيلة محلية أخرى متوافقة مع OpenAI
يمكن استخدام vLLM أو LiteLLM أو OAI-proxy أو بوابات مخصّصة إذا كانت تعرض نقطة نهاية/v1 بأسلوب OpenAI. استبدل كتلة provider أعلاه بنقطة النهاية ومعرّف النموذج الخاصين بك:
models.mode: "merge" حتى تظل النماذج المستضافة متاحة كخيارات رجوع احتياطي.
ملاحظة سلوكية لخلفيات /v1 المحلية/الممررة عبر وكيل:
- يتعامل OpenClaw مع هذه المسارات على أنها مسارات وكيل متوافقة مع OpenAI، وليست نقاط نهاية OpenAI أصلية
- لا ينطبق هنا تشكيل الطلبات الخاص بـ OpenAI الأصلي فقط: لا
service_tier، ولاstoreالخاص بـ Responses، ولا تشكيل حمولة التوافق مع الاستدلال في OpenAI، ولا تلميحات لذاكرة التخزين المؤقت للتلقين - لا يتم حقن رؤوس الإسناد المخفية الخاصة بـ OpenClaw (
originator،version،User-Agent) في عناوين URL الخاصة بهذه الوكلاء المخصّصة
- تقبل بعض الخوادم فقط
messages[].contentكسلسلة نصية في Chat Completions، وليس مصفوفات أجزاء محتوى منظّمة. اضبطmodels.providers.<provider>.models[].compat.requiresStringContent: trueلهذه النقاط النهائية. - بعض الخلفيات المحلية الأصغر أو الأكثر صرامة تكون غير مستقرة مع بنية
التلقين الكاملة الخاصة بوقت تشغيل الوكيل في OpenClaw، خاصة عند تضمين
مخططات الأدوات. إذا كانت
الخلفية تعمل مع استدعاءات
/v1/chat/completionsالمباشرة الصغيرة لكنها تفشل في الأدوار العادية لوكيل OpenClaw، فجرّب أولًاagents.defaults.experimental.localModelLean: trueلإزالة الأدوات الافتراضية الثقيلة مثلbrowserوcronوmessage؛ هذا علم تجريبي وليس إعدادًا افتراضيًا مستقرًا. راجع الميزات التجريبية. وإذا استمر الفشل، فجرّبmodels.providers.<provider>.models[].compat.supportsTools: false. - إذا استمرت الخلفية في الفشل فقط مع تشغيلات OpenClaw الأكبر، فعادةً ما تكون المشكلة المتبقية في سعة النموذج/الخادم من الطرف العلوي أو في خطأ برمجي في الخلفية، وليس في طبقة النقل الخاصة بـ OpenClaw.
استكشاف الأخطاء وإصلاحها
- هل يستطيع Gateway الوصول إلى الوكيل؟
curl http://127.0.0.1:1234/v1/models. - هل تم إلغاء تحميل نموذج LM Studio؟ أعد تحميله؛ فالبدء البارد سبب شائع لـ “التعليق”.
- يحذّر OpenClaw عندما تكون نافذة السياق المكتشفة أقل من 32k ويمنع التشغيل عندما تقل عن 16k. إذا واجهت هذا الفحص المسبق، فارفع حد السياق في الخادم/النموذج أو اختر نموذجًا أكبر.
- أخطاء السياق؟ اخفض
contextWindowأو ارفع حد الخادم لديك. - هل يعيد الخادم المتوافق مع OpenAI الخطأ
messages[].content ... expected a string؟ أضفcompat.requiresStringContent: trueإلى إدخال ذلك النموذج. - تعمل استدعاءات
/v1/chat/completionsالصغيرة المباشرة، لكنopenclaw infer model runيفشل مع Gemma أو نموذج محلي آخر؟ عطّل مخططات الأدوات أولًا باستخدامcompat.supportsTools: false، ثم اختبر مرة أخرى. إذا استمر الخادم في التعطل فقط مع تلقينات OpenClaw الأكبر، فاعتبر ذلك قيدًا في الخادم/النموذج من الطرف العلوي. - الأمان: تتجاوز النماذج المحلية المرشحات الموجودة على جانب المزود؛ لذا أبقِ الوكلاء محدودي النطاق وفعّل Compaction للحد من نطاق تأثير حقن التلقين.