موفرو النماذج
تغطي هذه الصفحة موفري LLM/النماذج (وليس قنوات الدردشة مثل WhatsApp/Telegram). لقواعد اختيار النماذج، راجع /concepts/models.قواعد سريعة
- تستخدم مراجع النماذج الصيغة
provider/model(مثال:opencode/claude-opus-4-6). - إذا ضبطت
agents.defaults.models، فستصبح قائمة السماح. - مساعدات CLI:
openclaw onboard، وopenclaw models list، وopenclaw models set <provider/model>. - قواعد التشغيل الاحتياطية وقت التشغيل، ومجسات التهدئة، واستمرارية تجاوزات الجلسات موثقة في /concepts/model-failover.
models.providers.*.models[].contextWindowهي بيانات وصفية أصلية للنموذج؛ أماmodels.providers.*.models[].contextTokensفهو الحد الفعلي وقت التشغيل.- يمكن للمكونات الإضافية الخاصة بالمزوّدات حقن فهارس النماذج عبر
registerProvider({ catalog })؛ ويقوم OpenClaw بدمج هذا الناتج فيmodels.providersقبل كتابةmodels.json. - يمكن لملفات manifest الخاصة بالمزوّدات إعلان
providerAuthEnvVarsحتى لا تحتاج مجسات المصادقة العامة المعتمدة على env إلى تحميل وقت تشغيل المكون الإضافي. أما خريطة متغيرات env الأساسية المتبقية فهي الآن فقط للمزوّدات غير المعتمدة على المكونات الإضافية/الأساسية وبعض حالات الأسبقية العامة مثل الإعداد الأولي لـ Anthropic مع أولوية API key. - يمكن للمكونات الإضافية الخاصة بالمزوّدات أيضًا امتلاك سلوك وقت تشغيل المزوّد عبر
normalizeModelId,normalizeTransport,normalizeConfig,applyNativeStreamingUsageCompat,resolveConfigApiKey,resolveSyntheticAuth,shouldDeferSyntheticProfileAuth,resolveDynamicModel,prepareDynamicModel,normalizeResolvedModel,contributeResolvedModelCompat,capabilities,normalizeToolSchemas,inspectToolSchemas,resolveReasoningOutputMode,prepareExtraParams,createStreamFn,wrapStreamFn,resolveTransportTurnState,resolveWebSocketSessionPolicy,createEmbeddingProvider,formatApiKey,refreshOAuth,buildAuthDoctorHint,matchesContextOverflowError,classifyFailoverReason,isCacheTtlEligible,buildMissingAuthMessage,suppressBuiltInModel,augmentModelCatalog,isBinaryThinking,supportsXHighThinking,resolveDefaultThinkingLevel,applyConfigDefaults,isModernModelRef,prepareRuntimeAuth,resolveUsageAuth,fetchUsageSnapshot, وonModelSelected. - ملاحظة: إن
capabilitiesالخاصة بوقت تشغيل المزوّد هي بيانات وصفية مشتركة للمشغّل (عائلة المزوّد، وخصائص النصوص/الأدوات، وتلميحات النقل/التخزين المؤقت). وهي ليست نفسها نموذج الإمكانات العامة الذي يصف ما الذي يسجله المكون الإضافي (استدلال نصي، وكلام، وغير ذلك).
السلوك المملوك للمزوّد عبر المكونات الإضافية
يمكن للمكونات الإضافية الخاصة بالمزوّدات الآن امتلاك معظم المنطق الخاص بالمزوّد، بينما يحتفظ OpenClaw بحلقة الاستدلال العامة. التقسيم المعتاد:auth[].run/auth[].runNonInteractive: يمتلك المزوّد تدفقات الإعداد الأولي/تسجيل الدخول لـopenclaw onboardوopenclaw models authوالإعداد غير التفاعليwizard.setup/wizard.modelPicker: يمتلك المزوّد تسميات خيارات المصادقة، والأسماء البديلة القديمة، وتلميحات قائمة السماح في الإعداد الأولي، وإدخالات الإعداد في منتقيات الإعداد الأولي/النموذجcatalog: يظهر المزوّد فيmodels.providersnormalizeModelId: يطبّع المزوّد معرّفات النماذج القديمة/المعاينة قبل البحث أو التحويل إلى الصيغة القانونيةnormalizeTransport: يطبّع المزوّدapi/baseUrlالخاصة بعائلة النقل قبل تجميع النموذج العام؛ ويتحقق OpenClaw من المزوّد المطابق أولًا، ثم من المكونات الإضافية الأخرى القادرة على استخدام الخطافات حتى يُجري أحدها تغييرًا فعليًا على النقلnormalizeConfig: يطبّع المزوّد إعدادmodels.providers.<id>قبل أن يستخدمه وقت التشغيل؛ ويتحقق OpenClaw من المزوّد المطابق أولًا، ثم من المكونات الإضافية الأخرى القادرة على استخدام الخطافات حتى يُجري أحدها تغييرًا فعليًا على الإعداد. وإذا لم تُعد كتابة الإعداد عبر خطاف مزوّد، تستمر المساعدات المضمّنة الخاصة بعائلة Google في تطبيع إدخالات مزوّدي Google المدعومة.applyNativeStreamingUsageCompat: يطبّق المزوّد عمليات إعادة كتابة توافق الاستخدام للبث الأصلي المدفوعة بنقطة النهاية لمزوّدي الإعدادresolveConfigApiKey: يحل المزوّد مصادقة env-marker لمزوّدي الإعداد من دون فرض تحميل مصادقة وقت التشغيل الكاملة. ويحتويamazon-bedrockأيضًا على محلل AWS env-marker مضمّن هنا، رغم أن مصادقة وقت تشغيل Bedrock تستخدم سلسلة AWS SDK الافتراضية.resolveSyntheticAuth: يمكن للمزوّد عرض توفّر المصادقة المحلية/المستضافة ذاتيًا أو غيرها من أنواع المصادقة المدعومة من الإعداد من دون حفظ أسرار نصية صريحةshouldDeferSyntheticProfileAuth: يمكن للمزوّد وضع العناصر النائبة المخزنة لملفات التعريف الاصطناعية بأولوية أقل من المصادقة المدعومة من env/configresolveDynamicModel: يقبل المزوّد معرّفات نماذج غير موجودة بعد في الفهرس الثابت المحليprepareDynamicModel: يحتاج المزوّد إلى تحديث بيانات وصفية قبل إعادة محاولة الحل الديناميكيnormalizeResolvedModel: يحتاج المزوّد إلى إعادة كتابة النقل أو base URLcontributeResolvedModelCompat: يقدّم المزوّد علامات توافق خاصة بنماذج البائع لديه حتى عندما تصل عبر نقل متوافق آخرcapabilities: ينشر المزوّد خصائص النصوص/الأدوات/عائلة المزوّدnormalizeToolSchemas: ينظف المزوّد schema الأدوات قبل أن يراها المشغّل المضمّنinspectToolSchemas: يعرض المزوّد تحذيرات schema خاصة بالنقل بعد التطبيعresolveReasoningOutputMode: يختار المزوّد عقود مخرجات الاستدلال الأصلية مقابل الموسومةprepareExtraParams: يضبط المزوّد القيم الافتراضية أو يطبّع معلمات الطلب لكل نموذجcreateStreamFn: يستبدل المزوّد مسار البث العادي بنقل مخصص بالكاملwrapStreamFn: يطبّق المزوّد أغلفة توافق للطلب/الترويسات/الجسم/النموذجresolveTransportTurnState: يزوّد المزوّد ترويسات أو بيانات وصفية أصلية لكل دورresolveWebSocketSessionPolicy: يزوّد المزوّد ترويسات جلسة WebSocket أصلية أو سياسة تهدئة الجلسةcreateEmbeddingProvider: يمتلك المزوّد سلوك embeddings الذاكرة عندما يكون من الأنسب أن يعيش داخل المكون الإضافي للمزوّد بدل لوحة التحويل الأساسية للـ embeddingsformatApiKey: ينسق المزوّد ملفات تعريف المصادقة المخزنة إلى سلسلةapiKeyالخاصة بوقت التشغيل والمتوقعة من النقلrefreshOAuth: يمتلك المزوّد تحديث OAuth عندما لا تكفي أدوات التحديث المشتركةpi-aibuildAuthDoctorHint: يضيف المزوّد إرشادات إصلاح عند فشل تحديث OAuthmatchesContextOverflowError: يتعرف المزوّد على أخطاء تجاوز نافذة السياق الخاصة به والتي قد تفوتها الاستدلالات العامةclassifyFailoverReason: يربط المزوّد الأخطاء الخام الخاصة بالنقل/API بأسباب الانتقال الاحتياطي مثل rate limit أو overloadisCacheTtlEligible: يحدد المزوّد أي معرّفات النماذج العليا تدعم TTL للتخزين المؤقت للموجّهbuildMissingAuthMessage: يستبدل المزوّد خطأ مخزن المصادقة العام بتلميح استعادة خاص بالمزوّدsuppressBuiltInModel: يخفي المزوّد الصفوف العليا القديمة ويمكن أن يعيد خطأً مملوكًا للبائع عند فشل الحل المباشرaugmentModelCatalog: يضيف المزوّد صفوف فهرس اصطناعية/نهائية بعد الاكتشاف ودمج الإعدادisBinaryThinking: يمتلك المزوّد تجربة الاستخدام الثنائية للتفكير تشغيل/إيقافsupportsXHighThinking: يفعّل المزوّدxhighلنماذج محددةresolveDefaultThinkingLevel: يمتلك المزوّد سياسة/thinkالافتراضية لعائلة من النماذجapplyConfigDefaults: يطبّق المزوّد القيم الافتراضية العامة الخاصة به أثناء تحويل الإعداد اعتمادًا على وضع المصادقة أو env أو عائلة النموذجisModernModelRef: يمتلك المزوّد مطابقة النموذج المفضّل live/smokeprepareRuntimeAuth: يحوّل المزوّد بيانات اعتماد مُعدّة إلى token قصير العمر لوقت التشغيلresolveUsageAuth: يحل المزوّد بيانات اعتماد الاستخدام/الحصة لـ/usageوالأسطح ذات الصلة بالحالة/التقاريرfetchUsageSnapshot: يمتلك المزوّد جلب/تحليل نقطة نهاية الاستخدام بينما يحتفظ الأساس بقالب الملخص والتنسيقonModelSelected: يشغّل المزوّد تأثيرات لاحقة بعد الاختيار مثل telemetry أو حفظ جلسة مملوك للمزوّد
anthropic: بديل توافق مستقبلي لـ Claude 4.6، وتلميحات إصلاح المصادقة، وجلب نقطة نهاية الاستخدام، وبيانات cache-TTL/عائلة المزوّد، وقيم افتراضية عامة للإعداد مدركة للمصادقةamazon-bedrock: مطابقة تجاوز السياق وتصنيف أسباب الانتقال الاحتياطي المملوكة للمزوّد لأخطاء Bedrock الخاصة مثل throttle/not-ready، بالإضافة إلى عائلة إعادة التشغيل المشتركةanthropic-by-modelلحمايات سياسات إعادة التشغيل الخاصة بـ Claude فقط على حركة Anthropicanthropic-vertex: حمايات سياسات إعادة التشغيل الخاصة بـ Claude فقط على حركة Anthropic-messageopenrouter: معرّفات نماذج تمريرية، وأغلفة طلبات، وتلميحات إمكانات المزوّد، وتنقية Gemini thought-signature على حركة Gemini المارة عبر proxy، وحقن الاستدلال عبر proxy من خلال عائلة البثopenrouter-thinking، وتمرير بيانات التوجيه الوصفية، وسياسة cache-TTLgithub-copilot: إعداد أولي/تسجيل دخول الجهاز، وبديل نموذج لتوافق مستقبلي، وتلميحات نص Claude-thinking، وتبادل token وقت التشغيل، وجلب نقطة نهاية الاستخدامopenai: بديل توافق مستقبلي لـ GPT-5.4، وتطبيع نقل OpenAI المباشر، وتلميحات غياب المصادقة المدركة لـ Codex، وكبت Spark، وصفوف فهرس اصطناعية لـ OpenAI/Codex، وسياسة التفكير/النماذج الحية، وتطبيع أسماء usage-token البديلة (input/outputوعائلتاprompt/completion)، وعائلة البث المشتركةopenai-responses-defaultsلأغلفة OpenAI/Codex الأصلية، وبيانات عائلة المزوّدgoogleوgoogle-gemini-cli: بديل توافق مستقبلي لـ Gemini 3.1، والتحقق من إعادة التشغيل الأصلي لـ Gemini، وتنقية إعادة التشغيل في bootstrap، ووضع مخرجات الاستدلال الموسوم، ومطابقة النماذج الحديثة؛ كما تمتلك Gemini CLI OAuth أيضًا تنسيق token لملفات تعريف المصادقة، وتحليل usage-token، وجلب نقطة نهاية الحصة لأسطح الاستخدامmoonshot: نقل مشترك، وتطبيع حمولة التفكير المملوك للمكون الإضافيkilocode: نقل مشترك، وترويسات طلبات مملوكة للمكون الإضافي، وتطبيع حمولة الاستدلال، وتنقية proxy-Gemini thought-signature، وسياسة cache-TTLzai: بديل توافق مستقبلي لـ GLM-5، وقيمtool_streamالافتراضية، وسياسة cache-TTL، وسياسة التفكير الثنائي/النماذج الحية، ومصادقة الاستخدام + جلب الحصة؛ أما المعرّفات غير المعروفةglm-5*فتُنشأ اصطناعيًا من القالب المضمّنglm-4.7xai: تطبيع نقل Responses الأصلي، وإعادة كتابة الأسماء البديلة/fastلمتغيرات Grok السريعة، والقيمة الافتراضيةtool_stream، وتنظيف schema الأدوات / حمولة الاستدلال الخاصة بـ xAImistral: بيانات إمكانات مملوكة للمكون الإضافيopencodeوopencode-go: بيانات إمكانات مملوكة للمكون الإضافي بالإضافة إلى تنقية proxy-Gemini thought-signaturebyteplus,cloudflare-ai-gateway,huggingface,kimi,nvidia,qianfan,stepfun,synthetic,together,venice,vercel-ai-gateway, وvolcengine: فهارس مملوكة للمكونات الإضافية فقطqwen: فهارس مملوكة للمكونات الإضافية للنماذج النصية بالإضافة إلى تسجيلات موفر media-understanding وتوليد الفيديو المشتركة للأسطح متعددة الوسائط الخاصة به؛ ويستخدم توليد الفيديو في Qwen نقاط النهاية القياسية للفيديو في DashScope مع نماذج Wan المضمّنة مثلwan2.6-t2vوwan2.7-r2vminimax: فهارس مملوكة للمكونات الإضافية، واختيار مختلط لسياسات إعادة التشغيل بين Anthropic/OpenAI، ومنطق مصادقة/لقطة الاستخدامxiaomi: فهارس مملوكة للمكونات الإضافية بالإضافة إلى منطق مصادقة/لقطة الاستخدام
openai الآن كلا معرفي المزوّد:
openai وopenai-codex.
ويغطي هذا المزوّدات التي ما زالت تناسب وسائل النقل العادية في OpenClaw. أما المزوّد
الذي يحتاج إلى منفّذ طلبات مخصص بالكامل فهو سطح امتداد منفصل وأعمق.
تدوير API key
- يدعم تدويرًا عامًا للمزوّدات لمزوّدات محددة.
- اضبط عدة مفاتيح عبر:
OPENCLAW_LIVE_<PROVIDER>_KEY(تجاوز حي واحد، أعلى أولوية)<PROVIDER>_API_KEYS(قائمة مفصولة بفواصل أو فاصلة منقوطة)<PROVIDER>_API_KEY(المفتاح الأساسي)<PROVIDER>_API_KEY_*(قائمة مرقمة، مثل<PROVIDER>_API_KEY_1)
- بالنسبة إلى مزوّدي Google، يُدرج
GOOGLE_API_KEYأيضًا كبديل احتياطي. - يحافظ ترتيب اختيار المفاتيح على الأولوية ويزيل التكرارات.
- لا تُعاد محاولة الطلبات بالمفتاح التالي إلا عند استجابات rate-limit (مثل
429,rate_limit,quota,resource exhausted,Too many concurrent requests,ThrottlingException,concurrency limit reached,workers_ai ... quota limit exceeded، أو رسائل حدود استخدام دورية). - تفشل الأخطاء غير المرتبطة بـ rate-limit مباشرة؛ ولا يُجرى أي تدوير للمفاتيح.
- عندما تفشل جميع المفاتيح المرشحة، يُعاد الخطأ النهائي من آخر محاولة.
المزوّدون المضمّنون (فهرس pi-ai)
يأتي OpenClaw مع فهرس pi‑ai. لا تتطلب هذه المزوّدات أي إعدادmodels.providers؛ فقط اضبط المصادقة + اختر نموذجًا.
OpenAI
- المزوّد:
openai - المصادقة:
OPENAI_API_KEY - التدوير الاختياري:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2، بالإضافة إلىOPENCLAW_LIVE_OPENAI_KEY(تجاوز فردي) - أمثلة النماذج:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - النقل الافتراضي هو
auto(WebSocket أولًا، وSSE احتياطيًا) - تجاوز لكل نموذج عبر
agents.defaults.models["openai/<model>"].params.transport("sse","websocket", أو"auto") - تكون تهيئة OpenAI Responses WebSocket الافتراضية مفعلة عبر
params.openaiWsWarmup(true/false) - يمكن تفعيل المعالجة ذات الأولوية في OpenAI عبر
agents.defaults.models["openai/<model>"].params.serviceTier - يقوم
/fastوparams.fastModeبربط طلبات Responses المباشرةopenai/*إلىservice_tier=priorityعلىapi.openai.com - استخدم
params.serviceTierعندما تريد مستوى صريحًا بدل مفتاح/fastالمشترك - لا تنطبق ترويسات الإسناد المخفية الخاصة بـ OpenClaw (
originator,version,User-Agent) إلا على حركة OpenAI الأصلية إلىapi.openai.com، وليس على الوكلاء المتوافقين عمومًا مع OpenAI - كما تحتفظ مسارات OpenAI الأصلية بـ Responses
store، وتلميحات التخزين المؤقت للموجّه، و تشكيل حمولة توافق الاستدلال الخاصة بـ OpenAI؛ أما مسارات proxy فلا تفعل ذلك - تم كبت
openai/gpt-5.3-codex-sparkعمدًا في OpenClaw لأن OpenAI API الحية ترفضه؛ ويُعامل Spark على أنه Codex-only
Anthropic
- المزوّد:
anthropic - المصادقة:
ANTHROPIC_API_KEY - التدوير الاختياري:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2، بالإضافة إلىOPENCLAW_LIVE_ANTHROPIC_KEY(تجاوز فردي) - مثال النموذج:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeyأوopenclaw onboard --auth-choice anthropic-cli - تدعم طلبات Anthropic العامة المباشرة مفتاح
/fastالمشترك وparams.fastMode، بما في ذلك حركة المرور المصادَق عليها عبر API key وOAuth المرسلة إلىapi.anthropic.com؛ ويربط OpenClaw ذلك إلىservice_tierفي Anthropic (autoمقابلstandard_only) - ملاحظة فوترة: ما تزال وثائق Claude Code العامة من Anthropic تتضمن استخدام Claude Code المباشر من الطرفية ضمن حدود خطة Claude. وبشكل منفصل، أبلغت Anthropic مستخدمي OpenClaw في 4 أبريل 2026 الساعة 12:00 ظهرًا بتوقيت PT / 8:00 مساءً بتوقيت BST أن مسار تسجيل الدخول إلى Claude ضمن OpenClaw يُعد استخدامًا لحزمة طرف ثالث ويتطلب Extra Usage تُحتسب بشكل منفصل عن الاشتراك.
- أصبح Anthropic setup-token متاحًا مرة أخرى كمسار OpenClaw قديم/يدوي. استخدمه مع توقع أن Anthropic أبلغت مستخدمي OpenClaw أن هذا المسار يتطلب Extra Usage.
OpenAI Code (Codex)
- المزوّد:
openai-codex - المصادقة: OAuth (ChatGPT)
- مثال النموذج:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexأوopenclaw models auth login --provider openai-codex - النقل الافتراضي هو
auto(WebSocket أولًا، وSSE احتياطيًا) - تجاوز لكل نموذج عبر
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket", أو"auto") - يُمرَّر
params.serviceTierأيضًا في طلبات Codex Responses الأصلية (chatgpt.com/backend-api) - لا تُرفق ترويسات الإسناد المخفية الخاصة بـ OpenClaw (
originator,version,User-Agent) إلا على حركة Codex الأصلية إلىchatgpt.com/backend-api، وليس على الوكلاء المتوافقين عمومًا مع OpenAI - يشترك في مفتاح
/fastنفسه وإعدادparams.fastModeكما فيopenai/*المباشر؛ ويربط OpenClaw ذلك إلىservice_tier=priority - يبقى
openai-codex/gpt-5.3-codex-sparkمتاحًا عندما يوفّره فهرس Codex OAuth؛ ويتوقف على الاستحقاق - يحتفظ
openai-codex/gpt-5.4بالقيمة الأصليةcontextWindow = 1050000والحد الافتراضي وقت التشغيلcontextTokens = 272000؛ ويمكنك تجاوز الحد وقت التشغيل عبرmodels.providers.openai-codex.models[].contextTokens - ملاحظة سياسة: إن OpenAI Codex OAuth مدعوم صراحةً للأدوات/سير العمل الخارجية مثل OpenClaw.
خيارات مستضافة أخرى بنمط الاشتراك
- Qwen Cloud: سطح موفر Qwen Cloud بالإضافة إلى ربط Alibaba DashScope وCoding Plan
- MiniMax: وصول MiniMax Coding Plan عبر OAuth أو API key
- GLM Models: نقاط نهاية Z.AI Coding Plan أو واجهات API العامة
OpenCode
- المصادقة:
OPENCODE_API_KEY(أوOPENCODE_ZEN_API_KEY) - مزوّد وقت تشغيل Zen:
opencode - مزوّد وقت تشغيل Go:
opencode-go - أمثلة النماذج:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenأوopenclaw onboard --auth-choice opencode-go
Google Gemini (API key)
- المزوّد:
google - المصادقة:
GEMINI_API_KEY - التدوير الاختياري:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2, والبديلGOOGLE_API_KEY، بالإضافة إلىOPENCLAW_LIVE_GEMINI_KEY(تجاوز فردي) - أمثلة النماذج:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - التوافق: يُطبَّع إعداد OpenClaw القديم الذي يستخدم
google/gemini-3.1-flash-previewإلىgoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - تقبل تشغيلات Gemini المباشرة أيضًا
agents.defaults.models["google/<model>"].params.cachedContent(أو الاسم القديمcached_content) لتمرير مقبضcachedContents/...أصلي خاص بالمزوّد؛ وتظهر إصابات التخزين المؤقت في Gemini على أنهاcacheReadفي OpenClaw
Google Vertex وGemini CLI
- المزوّدون:
google-vertex,google-gemini-cli - المصادقة: يستخدم Vertex gcloud ADC؛ ويستخدم Gemini CLI تدفق OAuth الخاص به
- تحذير: إن Gemini CLI OAuth في OpenClaw تكامل غير رسمي. وقد أبلغ بعض المستخدمين عن قيود على حسابات Google بعد استخدام عملاء من أطراف ثالثة. راجع شروط Google واستخدم حسابًا غير حرج إذا اخترت المتابعة.
- يُشحن Gemini CLI OAuth كجزء من المكون الإضافي المضمّن
google.- ثبّت Gemini CLI أولًا:
brew install gemini-cli- أو
npm install -g @google/gemini-cli
- فعّل:
openclaw plugins enable google - سجل الدخول:
openclaw models auth login --provider google-gemini-cli --set-default - النموذج الافتراضي:
google-gemini-cli/gemini-3.1-pro-preview - ملاحظة: أنت لا تلصق client id أو secret في
openclaw.json. إذ يخزن تدفق تسجيل الدخول في CLI الرموز في ملفات تعريف المصادقة على مضيف gateway. - إذا فشلت الطلبات بعد تسجيل الدخول، فاضبط
GOOGLE_CLOUD_PROJECTأوGOOGLE_CLOUD_PROJECT_IDعلى مضيف gateway. - تُحلّل ردود Gemini CLI JSON من
response؛ ويعود الاستخدام إلىstats، مع تطبيعstats.cachedإلىcacheReadفي OpenClaw.
- ثبّت Gemini CLI أولًا:
Z.AI (GLM)
- المزوّد:
zai - المصادقة:
ZAI_API_KEY - مثال النموذج:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- الأسماء البديلة: تُطبّع
z.ai/*وz-ai/*إلىzai/* - يقوم
zai-api-keyبالكشف التلقائي عن نقطة نهاية Z.AI المطابقة؛ بينما تفرضzai-coding-global,zai-coding-cn,zai-global, وzai-cnسطحًا محددًا
- الأسماء البديلة: تُطبّع
Vercel AI Gateway
- المزوّد:
vercel-ai-gateway - المصادقة:
AI_GATEWAY_API_KEY - مثال النموذج:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- المزوّد:
kilocode - المصادقة:
KILOCODE_API_KEY - مثال النموذج:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - يأتي الفهرس الاحتياطي الثابت مع
kilocode/kilo/auto؛ بينما يمكن لاكتشافhttps://api.kilo.ai/api/gateway/modelsالحي توسيع فهرس وقت التشغيل أكثر. - إن التوجيه الفعلي الأعلى وراء
kilocode/kilo/autoتملكه Kilo Gateway، وليس مشفرًا بشكل ثابت داخل OpenClaw.
مكونات إضافية أخرى مضمّنة للمزوّدات
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - مثال النموذج:
openrouter/auto - يطبّق OpenClaw ترويسات إسناد التطبيق الموثقة في OpenRouter فقط عندما
يكون الطلب موجّهًا فعليًا إلى
openrouter.ai - كما أن علامات
cache_controlالخاصة بـ Anthropic في OpenRouter محصورة أيضًا في مسارات OpenRouter المتحقق منها، وليست لعناوين proxy العشوائية - يبقى OpenRouter على مسار proxy المتوافق بنمط OpenAI، لذلك لا يُمرَّر
تشكيل الطلبات الأصلي الخاص بـ OpenAI فقط (
serviceTier, Responsesstore, تلميحات التخزين المؤقت للموجّه، حمولات توافق الاستدلال في OpenAI) - تحتفظ مراجع OpenRouter المدعومة من Gemini فقط بمسار تنقية proxy-Gemini thought-signature؛ أما التحقق الأصلي من إعادة تشغيل Gemini وإعادات كتابة bootstrap فتبقى معطلة
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - مثال النموذج:
kilocode/kilo/auto - تحتفظ مراجع Kilo المدعومة من Gemini بمسار تنقية
proxy-Gemini thought-signature نفسه؛ أما
kilocode/kilo/autoوتلميحات proxy-reasoning-unsupported الأخرى فتتجاوز حقن الاستدلال عبر proxy - MiniMax:
minimax(API key) وminimax-portal(OAuth) - المصادقة:
MINIMAX_API_KEYلـminimax؛ وMINIMAX_OAUTH_TOKENأوMINIMAX_API_KEYلـminimax-portal - مثال النموذج:
minimax/MiniMax-M2.7أوminimax-portal/MiniMax-M2.7 - يكتب إعداد MiniMax والإعداد عبر API key تعريفات صريحة
لنموذج M2.7 مع
input: ["text", "image"]؛ بينما يبقي فهرس المزوّد المضمّن مراجع الدردشة نصية فقط حتى يتم تحويل إعداد هذا المزوّد إلى هيئة فعلية - Moonshot:
moonshot(MOONSHOT_API_KEY) - مثال النموذج:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYأوKIMICODE_API_KEY) - مثال النموذج:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - مثال النموذج:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY,MODELSTUDIO_API_KEY, أوDASHSCOPE_API_KEY) - مثال النموذج:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - مثال النموذج:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - أمثلة النماذج:
stepfun/step-3.5-flash,stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - مثال النموذج:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - مثال النموذج:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENأوHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - مثال النموذج:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - مثال النموذج:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- تستخدم طلبات xAI الأصلية المضمّنة في OpenClaw مسار xAI Responses
- يقوم
/fastأوparams.fastMode: trueبإعادة كتابةgrok-3,grok-3-mini,grok-4, وgrok-4-0709إلى متغيراتها*-fast - تكون
tool_streamمفعّلة افتراضيًا؛ اضبطagents.defaults.models["xai/<model>"].params.tool_streamإلىfalseلتعطيلها
- Mistral:
mistral(MISTRAL_API_KEY) - مثال النموذج:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- تستخدم نماذج GLM على Cerebras المعرفين
zai-glm-4.7وzai-glm-4.6. - Base URL المتوافق مع OpenAI:
https://api.cerebras.ai/v1.
- تستخدم نماذج GLM على Cerebras المعرفين
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - مثال نموذج Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1; وCLI: openclaw onboard --auth-choice huggingface-api-key. راجع Hugging Face (Inference).
المزوّدون عبر models.providers (مخصص/base URL)
استخدم models.providers (أو models.json) لإضافة مزوّدين مخصصين أو
وكلاء متوافقين مع OpenAI/Anthropic.
تنشر كثير من المكونات الإضافية المضمّنة للمزوّدات أدناه فهرسًا افتراضيًا بالفعل.
استخدم إدخالات models.providers.<id> الصريحة فقط عندما تريد تجاوز
base URL أو الترويسات أو قائمة النماذج الافتراضية.
Moonshot AI (Kimi)
يأتي Moonshot كمكوّن إضافي مضمّن للمزوّد. استخدم المزوّد المضمّن افتراضيًا، وأضف إدخالmodels.providers.moonshot صريحًا فقط عندما
تحتاج إلى تجاوز base URL أو البيانات الوصفية للنموذج:
- المزوّد:
moonshot - المصادقة:
MOONSHOT_API_KEY - مثال النموذج:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyأوopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
يستخدم Kimi Coding نقطة النهاية المتوافقة مع Anthropic الخاصة بـ Moonshot AI:- المزوّد:
kimi - المصادقة:
KIMI_API_KEY - مثال النموذج:
kimi/kimi-code
kimi/k2p5 القديم مقبولًا كمعرّف نموذج متوافق.
Volcano Engine (Doubao)
توفر Volcano Engine (火山引擎) الوصول إلى Doubao ونماذج أخرى داخل الصين.- المزوّد:
volcengine(للبرمجة:volcengine-plan) - المصادقة:
VOLCANO_ENGINE_API_KEY - مثال النموذج:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
العام يُسجَّل في الوقت نفسه.
في منتقيات النماذج ضمن الإعداد الأولي/configure، يفضّل خيار مصادقة Volcengine
كلًا من الصفوف volcengine/* وvolcengine-plan/*. وإذا لم تكن هذه النماذج
محملة بعد، يعود OpenClaw إلى الفهرس غير المصفّى بدل عرض
منتقٍ فارغ محدد بالمزوّد.
النماذج المتاحة:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (دولي)
يوفر BytePlus ARK الوصول إلى النماذج نفسها التي توفرها Volcano Engine للمستخدمين الدوليين.- المزوّد:
byteplus(للبرمجة:byteplus-plan) - المصادقة:
BYTEPLUS_API_KEY - مثال النموذج:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
العام يُسجَّل في الوقت نفسه.
في منتقيات النماذج ضمن الإعداد الأولي/configure، يفضّل خيار مصادقة BytePlus
كلًا من الصفوف byteplus/* وbyteplus-plan/*. وإذا لم تكن هذه النماذج
محملة بعد، يعود OpenClaw إلى الفهرس غير المصفّى بدل عرض
منتقٍ فارغ محدد بالمزوّد.
النماذج المتاحة:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
يوفر Synthetic نماذج متوافقة مع Anthropic خلف المزوّدsynthetic:
- المزوّد:
synthetic - المصادقة:
SYNTHETIC_API_KEY - مثال النموذج:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
يُضبط MiniMax عبرmodels.providers لأنه يستخدم نقاط نهاية مخصصة:
- MiniMax OAuth (عالمي):
--auth-choice minimax-global-oauth - MiniMax OAuth (CN):
--auth-choice minimax-cn-oauth - MiniMax API key (عالمي):
--auth-choice minimax-global-api - MiniMax API key (CN):
--auth-choice minimax-cn-api - المصادقة:
MINIMAX_API_KEYلـminimax؛ وMINIMAX_OAUTH_TOKENأوMINIMAX_API_KEYلـminimax-portal
/fast on كتابة
MiniMax-M2.7 إلى MiniMax-M2.7-highspeed.
تقسيم الإمكانات المملوك للمكون الإضافي:
- تبقى القيم الافتراضية للنص/الدردشة على
minimax/MiniMax-M2.7 - يكون توليد الصور عبر
minimax/image-01أوminimax-portal/image-01 - يكون فهم الصور عبر
MiniMax-VL-01المملوك للمكون الإضافي على مساري مصادقة MiniMax - يبقى البحث على الويب على معرّف المزوّد
minimax
Ollama
يأتي Ollama كمكوّن إضافي مضمّن للمزوّد ويستخدم API الأصلية لـ Ollama:- المزوّد:
ollama - المصادقة: غير مطلوبة (خادم محلي)
- مثال النموذج:
ollama/llama3.3 - التثبيت: https://ollama.com/download
http://127.0.0.1:11434 عندما تشترك فيه عبر
OLLAMA_API_KEY، ويضيف المكون الإضافي المضمّن للمزوّد Ollama مباشرة إلى
openclaw onboard ومنتقي النماذج. راجع /providers/ollama
للحصول على تفاصيل الإعداد الأولي، ووضع السحابة/المحلي، والإعداد المخصص.
vLLM
يأتي vLLM كمكوّن إضافي مضمّن للمزوّد لخوادم OpenAI-compatible المحلية/المستضافة ذاتيًا:- المزوّد:
vllm - المصادقة: اختيارية (بحسب خادمك)
- Base URL الافتراضي:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
يأتي SGLang كمكوّن إضافي مضمّن للمزوّد لخوادم OpenAI-compatible السريعة المستضافة ذاتيًا:- المزوّد:
sglang - المصادقة: اختيارية (بحسب خادمك)
- Base URL الافتراضي:
http://127.0.0.1:30000/v1
/v1/models):
الوكلاء المحليون (LM Studio، وvLLM، وLiteLLM، وغير ذلك)
مثال (متوافق مع OpenAI):- بالنسبة إلى المزوّدين المخصصين، تكون
reasoningوinputوcostوcontextWindowوmaxTokensاختيارية. وعند حذفها، يستخدم OpenClaw القيم الافتراضية التالية:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- الموصى به: اضبط قيمًا صريحة تطابق حدود وكيلك/نموذجك.
- بالنسبة إلى
api: "openai-completions"على نقاط نهاية غير أصلية (أيbaseUrlغير فارغة يكون مضيفها ليسapi.openai.com)، يفرض OpenClaw القيمةcompat.supportsDeveloperRole: falseلتجنب أخطاء 400 الخاصة بالمزوّد عند عدم دعم أدوارdeveloper. - كما تتجاوز المسارات المتوافقة مع OpenAI بنمط proxy أيضًا تشكيل الطلبات الأصلية الخاصة بـ OpenAI فقط:
لا
service_tier، ولا Responsesstore، ولا تلميحات تخزين مؤقت للموجّه، ولا تشكيل حمولة توافق الاستدلال الخاصة بـ OpenAI، ولا ترويسات إسناد OpenClaw المخفية. - إذا كانت
baseUrlفارغة/غير موجودة، يحتفظ OpenClaw بسلوك OpenAI الافتراضي (الذي يُحل إلىapi.openai.com). - ولأسباب تتعلق بالسلامة، يُتجاوز حتى الضبط الصريح
compat.supportsDeveloperRole: trueعلى نقاط نهايةopenai-completionsغير الأصلية.
أمثلة CLI
ذو صلة
- النماذج — إعداد النماذج والأسماء البديلة
- Model Failover — سلاسل البدائل الاحتياطية وسلوك إعادة المحاولة
- مرجع الإعداد — مفاتيح إعداد النماذج
- المزوّدون — أدلة الإعداد لكل مزوّد