النماذج المحلية
النماذج المحلية ممكنة، لكن OpenClaw يتوقع سياقًا كبيرًا + دفاعات قوية ضد حقن المطالبات. البطاقات الصغيرة تقطع السياق وتضعف الأمان. استهدف مستوى عالٍ: ≥2 من أجهزة Mac Studio بمواصفات قصوى أو جهاز GPU مكافئ (~30 ألف دولار فأكثر). تعمل وحدة 24 GB GPU واحدة فقط مع المطالبات الأخف وبزمن استجابة أعلى. استخدم أكبر / النسخة الكاملة من النموذج التي يمكنك تشغيلها؛ إذ إن نقاط الفحص المكممة بشدة أو “الصغيرة” ترفع خطر حقن المطالبات (راجع Security). إذا كنت تريد أقل إعداد محلي احتكاكًا، فابدأ بـ Ollama وopenclaw onboard. هذه الصفحة هي الدليل العملي الموجّه للحِزم المحلية الأعلى مستوى وخوادم OpenAI-compatible المحلية المخصصة.
الموصى به: LM Studio + نموذج محلي كبير (Responses API)
أفضل حزمة محلية حاليًا. حمّل نموذجًا كبيرًا في LM Studio (مثل إصدار كامل من Qwen أو DeepSeek أو Llama)، وفعّل الخادم المحلي (الافتراضيhttp://127.0.0.1:1234)، واستخدم Responses API لإبقاء الاستدلال منفصلًا عن النص النهائي.
- ثبّت LM Studio: https://lmstudio.ai
- في LM Studio، نزّل أكبر إصدار نموذج متاح (تجنب الإصدارات “الصغيرة”/المكممة بشدة)، وابدأ الخادم، وتأكد من أن
http://127.0.0.1:1234/v1/modelsيسرده. - استبدل
my-local-modelبمعرّف النموذج الفعلي الظاهر في LM Studio. - أبقِ النموذج محمّلًا؛ إذ تضيف البداية الباردة زمن تأخير عند بدء التشغيل.
- اضبط
contextWindow/maxTokensإذا كان إصدار LM Studio لديك يختلف. - بالنسبة إلى WhatsApp، التزم بـ Responses API بحيث يُرسل النص النهائي فقط.
models.mode: "merge" حتى تظل fallbacks متاحة.
تكوين هجين: مستضاف كأساسي، ومحلي كرجوع احتياطي
محلي أولًا مع شبكة أمان مستضافة
بدّل ترتيب الأساسي والرجوع الاحتياطي؛ وأبقِ كتلة providers نفسها وmodels.mode: "merge" حتى تتمكن من الرجوع إلى Sonnet أو Opus عندما يتوقف الجهاز المحلي.
الاستضافة الإقليمية / توجيه البيانات
- توجد أيضًا إصدارات MiniMax/Kimi/GLM المستضافة على OpenRouter مع نقاط نهاية مثبتة على مناطق محددة (مثل الاستضافة في الولايات المتحدة). اختر الإصدار الإقليمي هناك للحفاظ على حركة البيانات ضمن النطاق القضائي الذي تختاره مع الاستمرار في استخدام
models.mode: "merge"لعمليات الرجوع الاحتياطي إلى Anthropic/OpenAI. - يظل التشغيل المحلي فقط هو أقوى مسار للخصوصية؛ أما التوجيه الإقليمي المستضاف فهو حل وسط عندما تحتاج إلى ميزات المزوّد ولكنك تريد التحكم في تدفق البيانات.
Proxies محلية أخرى متوافقة مع OpenAI
تعمل vLLM وLiteLLM وOAI-proxy أو gateways المخصصة إذا كانت تعرض نقطة نهاية/v1 بأسلوب OpenAI. استبدل كتلة provider أعلاه بنقطة النهاية ومعرّف النموذج لديك:
models.mode: "merge" حتى تظل النماذج المستضافة متاحة كخيارات fallback.
ملاحظة سلوكية لخلفيات /v1 المحلية/الممررة عبر proxy:
- يتعامل OpenClaw مع هذه المسارات باعتبارها مسارات OpenAI-compatible بنمط proxy، وليس كنقاط نهاية OpenAI أصلية
- لا ينطبق هنا تشكيل الطلبات الخاص بـ OpenAI الأصلية فقط: لا
service_tier، ولاstoreالخاصة بـ Responses، ولا تشكيل حمولة التوافق مع reasoning في OpenAI، ولا تلميحات prompt-cache - لا يتم حقن رؤوس الإسناد المخفية الخاصة بـ OpenClaw (
originator,version,User-Agent) في عناوين proxy المخصصة هذه
استكشاف الأخطاء وإصلاحها
- هل يستطيع gateway الوصول إلى proxy؟
curl http://127.0.0.1:1234/v1/models. - هل تم إلغاء تحميل نموذج LM Studio؟ أعد تحميله؛ فالبداية الباردة سبب شائع لحالة “التعليق”.
- أخطاء السياق؟ خفّض
contextWindowأو ارفع حد الخادم لديك. - الأمان: تتجاوز النماذج المحلية عوامل التصفية من جهة المزوّد؛ لذا أبقِ الوكلاء محدودين وشغّل الضغط للحد من نطاق تأثير حقن المطالبات.