موفّرو النماذج
تغطي هذه الصفحة موفّري LLM/النماذج (وليس قنوات الدردشة مثل WhatsApp/Telegram). للاطلاع على قواعد اختيار النماذج، راجع /concepts/models.القواعد السريعة
- تستخدم مراجع النماذج الصيغة
provider/model(مثال:opencode/claude-opus-4-6). - إذا قمت بتعيين
agents.defaults.models، فستصبح قائمة السماح. - مساعدات CLI:
openclaw onboardوopenclaw models listوopenclaw models set <provider/model>. - قواعد التشغيل الاحتياطي في وقت التشغيل، وفحوصات فترة التهدئة، واستمرارية تجاوزات الجلسات موثقة في /concepts/model-failover.
- يمثّل
models.providers.*.models[].contextWindowبيانات تعريف النموذج الأصلية؛ بينما يمثّلmodels.providers.*.models[].contextTokensالحد الفعّال في وقت التشغيل. - يمكن لإضافات الموفّر حقن فهارس النماذج عبر
registerProvider({ catalog })؛ ويقوم OpenClaw بدمج هذا الناتج فيmodels.providersقبل كتابةmodels.json. - يمكن لبيانات تعريف الموفّر التصريحية الإعلان عن
providerAuthEnvVarsوproviderAuthAliasesبحيث لا تحتاج فحوصات المصادقة العامة المعتمدة على المتغيرات البيئية ومتغيرات الموفّر إلى تحميل وقت تشغيل الإضافة. أصبحت خريطة متغيرات البيئة الأساسية المتبقية الآن مخصّصة فقط للموفّرين غير المعتمدين على الإضافات/الأساسيين وبعض حالات الأسبقية العامة مثل إعداد Anthropic الذي يعطي أولوية لمفتاح API. - يمكن لإضافات الموفّر أيضًا امتلاك سلوك وقت تشغيل الموفّر عبر
normalizeModelIdوnormalizeTransportوnormalizeConfig، وapplyNativeStreamingUsageCompatوresolveConfigApiKey، وresolveSyntheticAuthوshouldDeferSyntheticProfileAuth، وresolveDynamicModelوprepareDynamicModel، وnormalizeResolvedModelوcontributeResolvedModelCompat، وcapabilitiesوnormalizeToolSchemas، وinspectToolSchemasوresolveReasoningOutputMode، وprepareExtraParamsوcreateStreamFnوwrapStreamFn، وresolveTransportTurnStateوresolveWebSocketSessionPolicy، وcreateEmbeddingProviderوformatApiKeyوrefreshOAuth، وbuildAuthDoctorHint، وmatchesContextOverflowErrorوclassifyFailoverReason، وisCacheTtlEligibleوbuildMissingAuthMessageوsuppressBuiltInModel، وaugmentModelCatalogوisBinaryThinkingوsupportsXHighThinking، وresolveDefaultThinkingLevelوapplyConfigDefaultsوisModernModelRef، وprepareRuntimeAuthوresolveUsageAuthوfetchUsageSnapshot، وonModelSelected. - ملاحظة: إن
capabilitiesالخاصة بوقت تشغيل الموفّر هي بيانات تعريف مشتركة للمشغّل (عائلة الموفّر، وخصائص النصوص وسلوك الأدوات، وتلميحات النقل/التخزين المؤقت). وهي ليست نفسها نموذج الإمكانات العام الذي يصف ما تسجّله الإضافة (الاستدلال النصي، والكلام، وما إلى ذلك). - يتم إقران موفّر
codexالمضمّن مع حزمة وكيل Codex المضمّنة. استخدمcodex/gpt-*عندما تريد تسجيل دخول مملوكًا لـ Codex، واكتشافًا للنماذج، واستئنافًا أصليًا للسلاسل، وتنفيذًا على خادم التطبيق. تستمر مراجعopenai/gpt-*العادية في استخدام موفّر OpenAI ووسيط نقل الموفّر العادي في OpenClaw. يمكن لعمليات النشر الخاصة بـ Codex فقط تعطيل الرجوع التلقائي إلى PI عبرagents.defaults.embeddedHarness.fallback: "none"؛ راجع Codex Harness.
سلوك الموفّر المملوك للإضافة
يمكن لإضافات الموفّر الآن امتلاك معظم المنطق الخاص بكل موفّر بينما يحافظ OpenClaw على حلقة الاستدلال العامة. التقسيم المعتاد:auth[].run/auth[].runNonInteractive: يملك الموفّر تدفقات الإعداد/تسجيل الدخول لـopenclaw onboardوopenclaw models authوالإعداد غير التفاعليwizard.setup/wizard.modelPicker: يملك الموفّر تسميات خيارات المصادقة، والأسماء المستعارة القديمة، وتلميحات قائمة السماح الخاصة بالإعداد، وإدخالات الإعداد في منتقيات الإعداد/النموذجcatalog: يظهر الموفّر فيmodels.providersnormalizeModelId: يطبّع الموفّر معرّفات النماذج القديمة/التجريبية قبل البحث أو التحويل إلى صيغة معياريةnormalizeTransport: يطبّع الموفّرapi/baseUrlلعائلة النقل قبل التجميع العام للنموذج؛ يتحقق OpenClaw من الموفّر المطابق أولًا، ثم من إضافات الموفّر الأخرى القادرة على الخطافات إلى أن يقوم أحدها فعلًا بتغيير النقلnormalizeConfig: يطبّع الموفّر إعدادmodels.providers.<id>قبل أن يستخدمه وقت التشغيل؛ يتحقق OpenClaw من الموفّر المطابق أولًا، ثم من إضافات الموفّر الأخرى القادرة على الخطافات إلى أن يقوم أحدها فعلًا بتغيير الإعداد. إذا لم تعِد أي خطافة موفّر كتابة الإعداد، فستستمر مساعدات عائلة Google المضمّنة في تطبيع إدخالات موفّر Google المدعومة.applyNativeStreamingUsageCompat: يطبّق الموفّر عمليات إعادة كتابة توافق استخدام البث الأصلي المعتمدة على نقطة النهاية لموفّري الإعداداتresolveConfigApiKey: يحلّ الموفّر مصادقة علامات متغيرات البيئة لموفّري الإعدادات دون فرض تحميل كامل لمصادقة وقت التشغيل. ويحتويamazon-bedrockأيضًا على محلّل علامات بيئة AWS مضمّن هنا، رغم أن مصادقة وقت تشغيل Bedrock تستخدم سلسلة AWS SDK الافتراضية.resolveSyntheticAuth: يمكن للموفّر إتاحة توفر المصادقة المحلية/المستضافة ذاتيًا أو غيرها من المصادقات المعتمدة على الإعدادات دون حفظ أسرار نصية صريحةshouldDeferSyntheticProfileAuth: يمكن للموفّر تمييز عناصر النائب الاصطناعية المخزنة في الملف الشخصي على أنها أقل أولوية من المصادقة المعتمدة على البيئة/الإعداداتresolveDynamicModel: يقبل الموفّر معرّفات النماذج غير الموجودة بعد في الفهرس المحلي الثابتprepareDynamicModel: يحتاج الموفّر إلى تحديث بيانات التعريف قبل إعادة محاولة التحليل الديناميكيnormalizeResolvedModel: يحتاج الموفّر إلى عمليات إعادة كتابة للنقل أو عنوان URL الأساسيcontributeResolvedModelCompat: يساهم الموفّر بعلامات التوافق الخاصة بنماذج المورّد التابعة له حتى عندما تصل عبر نقل متوافق آخرcapabilities: ينشر الموفّر خصائص النصوص/الأدوات/عائلة الموفّرnormalizeToolSchemas: ينظّف الموفّر مخططات الأدوات قبل أن يراها المشغّل المضمّنinspectToolSchemas: يعرض الموفّر تحذيرات المخططات الخاصة بالنقل بعد التطبيعresolveReasoningOutputMode: يختار الموفّر بين عقود مخرجات الاستدلال الأصلية أو الموسومةprepareExtraParams: يضبط الموفّر افتراضيات أو يطبّع معلمات الطلب لكل نموذجcreateStreamFn: يستبدل الموفّر مسار البث العادي بنقل مخصّص بالكاملwrapStreamFn: يطبّق الموفّر أغلفة توافق للرؤوس/نص الطلب/النموذجresolveTransportTurnState: يوفّر الموفّر رؤوسًا أو بيانات تعريف أصلية للنقل لكل دورresolveWebSocketSessionPolicy: يوفّر الموفّر رؤوس جلسة WebSocket أصلية أو سياسة تهدئة الجلسةcreateEmbeddingProvider: يملك الموفّر سلوك التضمين للذاكرة عندما يكون من الأنسب أن ينتمي إلى إضافة الموفّر بدلًا من لوحة تحويل التضمين الأساسيةformatApiKey: ينسّق الموفّر ملفات تعريف المصادقة المخزنة إلى سلسلةapiKeyالخاصة بوقت التشغيل والمتوقعة من النقلrefreshOAuth: يملك الموفّر تحديث OAuth عندما لا تكون أدوات التحديث المشتركةpi-aiكافيةbuildAuthDoctorHint: يضيف الموفّر إرشادات إصلاح عندما يفشل تحديث OAuthmatchesContextOverflowError: يتعرف الموفّر على أخطاء تجاوز نافذة السياق الخاصة بالموفّر والتي قد تفوتها الاستدلالات العامةclassifyFailoverReason: يربط الموفّر أخطاء النقل/API الخام الخاصة بالموفّر بأسباب الفشل الاحتياطي مثل تجاوز الحد أو الحمل الزائدisCacheTtlEligible: يحدد الموفّر أي معرّفات النماذج الصادرة من الجهة العليا تدعم مدة صلاحية التخزين المؤقت للموجّهbuildMissingAuthMessage: يستبدل الموفّر خطأ مخزن المصادقة العام بتلميح استرداد خاص بالموفّرsuppressBuiltInModel: يُخفي الموفّر الصفوف العليا القديمة ويمكنه إرجاع خطأ مملوك للمورّد عند فشل التحليل المباشرaugmentModelCatalog: يُلحق الموفّر صفوف فهرس اصطناعية/نهائية بعد الاكتشاف ودمج الإعداداتisBinaryThinking: يملك الموفّر تجربة استخدام التفكير الثنائي تشغيل/إيقافsupportsXHighThinking: يضمّن الموفّر نماذج محددة ضمنxhighresolveDefaultThinkingLevel: يملك الموفّر سياسة/thinkالافتراضية لعائلة نماذج معيّنةapplyConfigDefaults: يطبّق الموفّر افتراضيات عامة خاصة به أثناء تجسيد الإعدادات استنادًا إلى وضع المصادقة أو البيئة أو عائلة النموذجisModernModelRef: يملك الموفّر مطابقة النموذج المفضّل للاختبارات الحية/اختبارات الدخانprepareRuntimeAuth: يحوّل الموفّر بيانات اعتماد مُعدّة مسبقًا إلى رمز وقت تشغيل قصير العمرresolveUsageAuth: يحلّ الموفّر بيانات اعتماد الاستخدام/الحصة لـ/usageوالأسطح الأخرى ذات الصلة بالحالة/التقاريرfetchUsageSnapshot: يملك الموفّر جلب/تحليل نقطة نهاية الاستخدام بينما يظل اللبّ مسؤولًا عن هيكل الملخص والتنسيقonModelSelected: يشغّل الموفّر تأثيرات جانبية بعد الاختيار مثل القياس عن بُعد أو مسك الدفاتر الخاص بالجلسة والمملوك للموفّر
anthropic: توافق احتياطي مستقبلي لـ Claude 4.6، وتلميحات إصلاح المصادقة، وجلب نقطة نهاية الاستخدام، وبيانات تعريف TTL لذاكرة التخزين المؤقت/عائلة الموفّر، وافتراضيات الإعدادات العامة الواعية بالمصادقةamazon-bedrock: مطابقة تجاوز نافذة السياق المملوكة للموفّر وتصنيف أسباب الفشل الاحتياطي لأخطاء Bedrock الخاصة بتقييد المعدّل/عدم الجاهزية، بالإضافة إلى عائلة إعادة التشغيل المشتركةanthropic-by-modelلحواجز سياسة إعادة التشغيل الخاصة بـ Claude فقط على حركة مرور Anthropicanthropic-vertex: حواجز سياسة إعادة التشغيل الخاصة بـ Claude فقط على حركة مرور رسائل Anthropicopenrouter: معرّفات نماذج تمرير مباشر، وأغلفة الطلبات، وتلميحات قدرات الموفّر، وتنقية توقيع أفكار Gemini على حركة مرور Gemini عبر الوكيل، وحقن الاستدلال عبر الوكيل من خلال عائلة البثopenrouter-thinking، وتمرير بيانات تعريف التوجيه، وسياسة TTL لذاكرة التخزين المؤقتgithub-copilot: الإعداد/تسجيل الدخول عبر الجهاز، والتوافق الاحتياطي المستقبلي للنموذج، وتلميحات نصوص Claude الخاصة بالتفكير، وتبادل رموز وقت التشغيل، وجلب نقطة نهاية الاستخدامopenai: توافق احتياطي مستقبلي لـ GPT-5.4، وتطبيع مباشر لنقل OpenAI، وتلميحات فقدان المصادقة الواعية بـ Codex، وإخفاء Spark، وصفوف فهرس اصطناعية لـ OpenAI/Codex، وسياسة التفكير/النموذج الحي، وتطبيع الأسماء المستعارة لرموز الاستخدام (input/outputوعائلتاprompt/completion)، وعائلة البث المشتركةopenai-responses-defaultsللأغلفة الأصلية لـ OpenAI/Codex، وبيانات تعريف عائلة الموفّر، وتسجيل موفّر توليد الصور المضمّن لـgpt-image-1، وتسجيل موفّر توليد الفيديو المضمّن لـsora-2googleوgoogle-gemini-cli: توافق احتياطي مستقبلي لـ Gemini 3.1، والتحقق الأصلي من إعادة تشغيل Gemini، وتنقية إعادة تشغيل التمهيد، ووضع مخرجات الاستدلال الموسومة، ومطابقة النماذج الحديثة، وتسجيل موفّر توليد الصور المضمّن لنماذج Gemini image-preview، وتسجيل موفّر توليد الفيديو المضمّن لنماذج Veo؛ كما أن OAuth الخاص بـ Gemini CLI يملك أيضًا تنسيق رموز ملفات تعريف المصادقة، وتحليل رموز الاستخدام، وجلب نقطة نهاية الحصة لأسطح الاستخدامmoonshot: نقل مشترك، وتطبيع حمولة التفكير مملوك للإضافةkilocode: نقل مشترك، ورؤوس طلبات مملوكة للإضافة، وتطبيع حمولة الاستدلال، وتنقية توقيع أفكار Gemini عبر الوكيل، وسياسة TTL لذاكرة التخزين المؤقتzai: توافق احتياطي مستقبلي لـ GLM-5، وافتراضياتtool_stream، وسياسة TTL لذاكرة التخزين المؤقت، وسياسة التفكير الثنائي/النموذج الحي، ومصادقة الاستخدام + جلب الحصة؛ وتُنشأ معرّفاتglm-5*غير المعروفة اصطناعيًا من القالب المضمّنglm-4.7xai: تطبيع نقل Responses الأصلي، وإعادات كتابة الأسماء المستعارة/fastلـ متغيرات Grok السريعة، وtool_streamالافتراضي، وتنظيف مخطط الأدوات / حمولة الاستدلال الخاص بـ xAI، وتسجيل موفّر توليد الفيديو المضمّن لـgrok-imagine-videomistral: بيانات تعريف القدرات المملوكة للإضافةopencodeوopencode-go: بيانات تعريف القدرات المملوكة للإضافة بالإضافة إلى تنقية توقيع أفكار Gemini عبر الوكيلalibaba: فهرس توليد الفيديو المملوك للإضافة لمراجع نماذج Wan المباشرة مثلalibaba/wan2.6-t2vbyteplus: فهارس مملوكة للإضافة بالإضافة إلى تسجيل موفّر توليد الفيديو المضمّن لنماذج Seedance لتحويل النص إلى فيديو/الصورة إلى فيديوfal: تسجيل موفّر توليد الفيديو المضمّن لنماذج الأطراف الثالثة المستضافة وتسجيل موفّر توليد الصور المضمّن لنماذج صور FLUX بالإضافة إلى تسجيل موفّر توليد الفيديو المضمّن لنماذج الفيديو المستضافة من أطراف ثالثةcloudflare-ai-gatewayوhuggingfaceوkimiوnvidiaوqianfan، وstepfunوsyntheticوveniceوvercel-ai-gatewayوvolcengine: فهارس مملوكة للإضافة فقطqwen: فهارس مملوكة للإضافة للنماذج النصية بالإضافة إلى تسجيلات مشتركة لموفّر فهم الوسائط وتوليد الفيديو لأسطحه متعددة الوسائط؛ يستخدم توليد الفيديو في Qwen نقاط نهاية الفيديو القياسية DashScope مع نماذج Wan المضمّنة مثلwan2.6-t2vوwan2.7-r2vrunway: تسجيل موفّر توليد الفيديو المملوك للإضافة لنماذج Runway الأصلية المعتمدة على المهام مثلgen4.5minimax: فهارس مملوكة للإضافة، وتسجيل موفّر توليد الفيديو المضمّن لنماذج فيديو Hailuo، وتسجيل موفّر توليد الصور المضمّن لـimage-01، واختيار هجين لسياسة إعادة التشغيل بين Anthropic/OpenAI، ومنطق مصادقة/لقطة الاستخدامtogether: فهارس مملوكة للإضافة بالإضافة إلى تسجيل موفّر توليد الفيديو المضمّن لنماذج فيديو Wanxiaomi: فهارس مملوكة للإضافة بالإضافة إلى منطق مصادقة/لقطة الاستخدام
openai الآن تملك كلا معرّفي الموفّر:
openai و openai-codex.
وهذا يغطي الموفّرين الذين ما زالوا يناسبون وسائل النقل العادية في OpenClaw. أما الموفّر
الذي يحتاج إلى منفّذ طلبات مخصّص بالكامل فهو سطح توسعة منفصل وأعمق.
تدوير مفاتيح API
- يدعم تدويرًا عامًا لمفاتيح الموفّر لموفّرين محددين.
- قم بتهيئة عدة مفاتيح عبر:
OPENCLAW_LIVE_<PROVIDER>_KEY(تجاوز حي واحد، أعلى أولوية)<PROVIDER>_API_KEYS(قائمة مفصولة بفواصل أو فاصلة منقوطة)<PROVIDER>_API_KEY(المفتاح الأساسي)<PROVIDER>_API_KEY_*(قائمة مرقمة، مثل<PROVIDER>_API_KEY_1)
- بالنسبة إلى موفّري Google، يتم تضمين
GOOGLE_API_KEYأيضًا كبديل احتياطي. - يحافظ ترتيب اختيار المفاتيح على الأولوية ويزيل القيم المكررة.
- تُعاد محاولة الطلبات باستخدام المفتاح التالي فقط عند استجابات تجاوز المعدّل (على
سبيل المثال
429أوrate_limitأوquotaأوresource exhaustedأوToo many concurrent requestsأوThrottlingExceptionأوconcurrency limit reached، أوworkers_ai ... quota limit exceeded، أو رسائل حد الاستخدام الدورية). - تفشل الأخطاء غير المرتبطة بتجاوز المعدّل فورًا؛ ولا تتم محاولة تدوير المفاتيح.
- عندما تفشل جميع المفاتيح المرشحة، يُعاد الخطأ النهائي من آخر محاولة.
الموفّرون المضمّنون (فهرس pi-ai)
يشحن OpenClaw مع فهرس pi-ai. لا تتطلب هذه الموفّرات أي إعدادmodels.providers؛ فقط عيّن المصادقة + اختر نموذجًا.
OpenAI
- الموفّر:
openai - المصادقة:
OPENAI_API_KEY - التدوير الاختياري:
OPENAI_API_KEYSوOPENAI_API_KEY_1وOPENAI_API_KEY_2، بالإضافة إلىOPENCLAW_LIVE_OPENAI_KEY(تجاوز واحد) - أمثلة على النماذج:
openai/gpt-5.4وopenai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - النقل الافتراضي هو
auto(WebSocket أولًا، ثم SSE احتياطيًا) - يمكنك التجاوز لكل نموذج عبر
agents.defaults.models["openai/<model>"].params.transport("sse"أو"websocket"أو"auto") - يتم تفعيل الإحماء المسبق لـ OpenAI Responses WebSocket افتراضيًا عبر
params.openaiWsWarmup(true/false) - يمكن تمكين المعالجة ذات الأولوية في OpenAI عبر
agents.defaults.models["openai/<model>"].params.serviceTier - تقوم
/fastوparams.fastModeبربط طلبات Responses المباشرةopenai/*بـservice_tier=priorityعلىapi.openai.com - استخدم
params.serviceTierعندما تريد مستوى خدمة صريحًا بدلًا من مفتاح التبديل المشترك/fast - تنطبق رؤوس الإسناد المخفية الخاصة بـ OpenClaw (
originatorوversionوUser-Agent) فقط على حركة مرور OpenAI الأصلية إلىapi.openai.com، وليس على وكلاء OpenAI-compatible العامّين - تحتفظ مسارات OpenAI الأصلية أيضًا بخاصية Responses
store، وتلميحات ذاكرة التخزين المؤقت للموجّه، و تشكيل حمولة توافق الاستدلال الخاصة بـ OpenAI؛ أما مسارات الوكيل فلا تحتفظ بذلك - يتم إخفاء
openai/gpt-5.3-codex-sparkعمدًا في OpenClaw لأن واجهة OpenAI API الحية ترفضه؛ ويُعامل Spark على أنه خاص بـ Codex فقط
Anthropic
- الموفّر:
anthropic - المصادقة:
ANTHROPIC_API_KEY - التدوير الاختياري:
ANTHROPIC_API_KEYSوANTHROPIC_API_KEY_1وANTHROPIC_API_KEY_2، بالإضافة إلىOPENCLAW_LIVE_ANTHROPIC_KEY(تجاوز واحد) - مثال على النموذج:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - تدعم طلبات Anthropic العامة المباشرة أيضًا مفتاح التبديل المشترك
/fastوparams.fastMode، بما في ذلك حركة المرور المرسلة إلىapi.anthropic.comوالمصادق عليها بمفتاح API وOAuth؛ ويقوم OpenClaw بربط ذلك بـservice_tierالخاص بـ Anthropic (autoمقابلstandard_only) - ملاحظة Anthropic: أخبرنا موظفو Anthropic أن استخدام Claude CLI بأسلوب OpenClaw مسموح مرة أخرى، لذا يتعامل OpenClaw مع إعادة استخدام Claude CLI واستخدام
claude -pعلى أنهما معتمدان لهذا التكامل ما لم تنشر Anthropic سياسة جديدة. - لا يزال رمز إعداد Anthropic متاحًا كمسار رمز مدعوم في OpenClaw، لكن OpenClaw يفضّل الآن إعادة استخدام Claude CLI و
claude -pعند توفرهما.
OpenAI Code (Codex)
- الموفّر:
openai-codex - المصادقة: OAuth (ChatGPT)
- مثال على النموذج:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexأوopenclaw models auth login --provider openai-codex - النقل الافتراضي هو
auto(WebSocket أولًا، ثم SSE احتياطيًا) - يمكنك التجاوز لكل نموذج عبر
agents.defaults.models["openai-codex/<model>"].params.transport("sse"أو"websocket"أو"auto") - يتم أيضًا تمرير
params.serviceTierفي طلبات Codex Responses الأصلية (chatgpt.com/backend-api) - لا تُرفق رؤوس الإسناد المخفية الخاصة بـ OpenClaw (
originatorوversionوUser-Agent) إلا على حركة مرور Codex الأصلية إلىchatgpt.com/backend-api، وليس على وكلاء OpenAI-compatible العامّين - يشارك نفس مفتاح التبديل
/fastوإعدادparams.fastModeمثلopenai/*المباشر؛ ويقوم OpenClaw بربط ذلك بـservice_tier=priority - يبقى
openai-codex/gpt-5.3-codex-sparkمتاحًا عندما يكشف فهرس Codex OAuth عنه؛ وذلك يعتمد على الاستحقاق - يحتفظ
openai-codex/gpt-5.4بقيمته الأصليةcontextWindow = 1050000وقيمة وقت تشغيل افتراضيةcontextTokens = 272000؛ ويمكنك تجاوز حد وقت التشغيل عبرmodels.providers.openai-codex.models[].contextTokens - ملاحظة حول السياسة: مصادقة OpenAI Codex عبر OAuth مدعومة صراحةً للأدوات/سير العمل الخارجية مثل OpenClaw.
خيارات أخرى مستضافة بنمط الاشتراك
- Qwen Cloud: سطح موفّر Qwen Cloud بالإضافة إلى ربط نقاط نهاية Alibaba DashScope وCoding Plan
- MiniMax: وصول MiniMax Coding Plan عبر OAuth أو مفتاح API
- GLM Models: Z.AI Coding Plan أو نقاط نهاية API العامة
OpenCode
- المصادقة:
OPENCODE_API_KEY(أوOPENCODE_ZEN_API_KEY) - موفّر وقت تشغيل Zen:
opencode - موفّر وقت تشغيل Go:
opencode-go - أمثلة على النماذج:
opencode/claude-opus-4-6وopencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenأوopenclaw onboard --auth-choice opencode-go
Google Gemini (مفتاح API)
- الموفّر:
google - المصادقة:
GEMINI_API_KEY - التدوير الاختياري:
GEMINI_API_KEYSوGEMINI_API_KEY_1وGEMINI_API_KEY_2، والبديل الاحتياطيGOOGLE_API_KEY، وOPENCLAW_LIVE_GEMINI_KEY(تجاوز واحد) - أمثلة على النماذج:
google/gemini-3.1-pro-previewوgoogle/gemini-3-flash-preview - التوافق: يتم تطبيع إعداد OpenClaw القديم الذي يستخدم
google/gemini-3.1-flash-previewإلىgoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key - تقبل عمليات Gemini المباشرة أيضًا
agents.defaults.models["google/<model>"].params.cachedContent(أوcached_contentالقديم) لتمرير معرّفcachedContents/...أصلي خاص بالموفّر؛ وتظهر إصابات ذاكرة Gemini المؤقتة في OpenClaw على شكلcacheRead
Google Vertex وGemini CLI
- الموفّرون:
google-vertex،google-gemini-cli - المصادقة: يستخدم Vertex بيانات اعتماد ADC من gcloud؛ ويستخدم Gemini CLI تدفق OAuth الخاص به
- تحذير: إن OAuth الخاص بـ Gemini CLI في OpenClaw تكامل غير رسمي. أبلغ بعض المستخدمين عن قيود على حسابات Google بعد استخدام عملاء من جهات خارجية. راجع شروط Google واستخدم حسابًا غير حرج إذا اخترت المتابعة.
- يتم شحن OAuth الخاص بـ Gemini CLI كجزء من الإضافة المضمّنة
google.- ثبّت Gemini CLI أولًا:
brew install gemini-cli- أو
npm install -g @google/gemini-cli
- التمكين:
openclaw plugins enable google - تسجيل الدخول:
openclaw models auth login --provider google-gemini-cli --set-default - النموذج الافتراضي:
google-gemini-cli/gemini-3-flash-preview - ملاحظة: لا تقوم بلصق معرّف العميل أو السر في
openclaw.json. يخزن تدفق تسجيل الدخول في CLI الرموز في ملفات تعريف المصادقة على مضيف Gateway. - إذا فشلت الطلبات بعد تسجيل الدخول، فعيّن
GOOGLE_CLOUD_PROJECTأوGOOGLE_CLOUD_PROJECT_IDعلى مضيف Gateway. - يتم تحليل ردود JSON الخاصة بـ Gemini CLI من
response؛ بينما يعود الاستخدام احتياطيًا إلىstats، مع تطبيعstats.cachedإلىcacheReadفي OpenClaw.
- ثبّت Gemini CLI أولًا:
Z.AI (GLM)
- الموفّر:
zai - المصادقة:
ZAI_API_KEY - مثال على النموذج:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- الأسماء المستعارة: يتم تطبيع
z.ai/*وz-ai/*إلىzai/* - يكتشف
zai-api-keyنقطة نهاية Z.AI المطابقة تلقائيًا؛ بينما يفرضzai-coding-globalوzai-coding-cnوzai-globalوzai-cnسطحًا محددًا
- الأسماء المستعارة: يتم تطبيع
Vercel AI Gateway
- الموفّر:
vercel-ai-gateway - المصادقة:
AI_GATEWAY_API_KEY - مثال على النموذج:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- الموفّر:
kilocode - المصادقة:
KILOCODE_API_KEY - مثال على النموذج:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - عنوان URL الأساسي:
https://api.kilo.ai/api/gateway/ - يشحن فهرس احتياطي ثابت مع
kilocode/kilo/auto؛ ويمكن لاكتشافhttps://api.kilo.ai/api/gateway/modelsالحي توسيع فهرس وقت التشغيل بشكل أكبر. - إن التوجيه الفعلي من المصدر وراء
kilocode/kilo/autoمملوك لـ Kilo Gateway، وليس مضمّنًا بشكل ثابت في OpenClaw.
إضافات الموفّرين المضمّنة الأخرى
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - مثال على النموذج:
openrouter/auto - يطبّق OpenClaw رؤوس إسناد التطبيق الموثقة في OpenRouter فقط عندما
يستهدف الطلب فعليًا
openrouter.ai - كما تُقيَّد علامات
cache_controlالخاصة بـ Anthropic والمخصصة لـ OpenRouter على مسارات OpenRouter المتحقق منها، وليس على عناوين URL الوكيلة العشوائية - يظل OpenRouter على مسار OpenAI-compatible بنمط الوكيل، لذلك لا يتم
تمرير تشكيل الطلبات الأصلي الخاص بـ OpenAI فقط (
serviceTier، وstoreالخاص بـ Responses، وتلميحات ذاكرة التخزين المؤقت للموجّه، وحمولات توافق الاستدلال الخاصة بـ OpenAI) - تحتفظ مراجع OpenRouter المدعومة بـ Gemini فقط بمسار تنقية توقيع أفكار Gemini عبر الوكيل؛ بينما يظل التحقق الأصلي من إعادة تشغيل Gemini وإعادات كتابة التمهيد معطّلين
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - مثال على النموذج:
kilocode/kilo/auto - تحتفظ مراجع Kilo المدعومة بـ Gemini بنفس
مسار تنقية توقيع أفكار Gemini عبر الوكيل؛ بينما يتجاوز
kilocode/kilo/autoوالتلميحات الأخرى التي لا تدعم استدلال الوكيل حقن الاستدلال عبر الوكيل - MiniMax:
minimax(مفتاح API) وminimax-portal(OAuth) - المصادقة:
MINIMAX_API_KEYلـminimax؛ وMINIMAX_OAUTH_TOKENأوMINIMAX_API_KEYلـminimax-portal - مثال على النموذج:
minimax/MiniMax-M2.7أوminimax-portal/MiniMax-M2.7 - يكتب إعداد MiniMax/إعداد مفتاح API تعريفات صريحة لنموذج M2.7 مع
input: ["text", "image"]؛ بينما يبقي فهرس الموفّر المضمّن مراجع الدردشة نصية فقط إلى أن يتم تجسيد إعداد ذلك الموفّر - Moonshot:
moonshot(MOONSHOT_API_KEY) - مثال على النموذج:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYأوKIMICODE_API_KEY) - مثال على النموذج:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - مثال على النموذج:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEYأوMODELSTUDIO_API_KEYأوDASHSCOPE_API_KEY) - مثال على النموذج:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - مثال على النموذج:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - أمثلة على النماذج:
stepfun/step-3.5-flash،stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - مثال على النموذج:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - مثال على النموذج:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENأوHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - مثال على النموذج:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - مثال على النموذج:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- تستخدم طلبات xAI الأصلية المضمّنة مسار xAI Responses
- تعيد
/fastأوparams.fastMode: trueكتابةgrok-3وgrok-3-mini، وgrok-4وgrok-4-0709إلى متغيراتها*-fast - يكون
tool_streamمفعّلًا افتراضيًا؛ عيّنagents.defaults.models["xai/<model>"].params.tool_streamإلىfalseمن أجل تعطيله
- Mistral:
mistral(MISTRAL_API_KEY) - مثال على النموذج:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- تستخدم نماذج GLM على Cerebras المعرّفات
zai-glm-4.7وzai-glm-4.6. - عنوان URL الأساسي المتوافق مع OpenAI:
https://api.cerebras.ai/v1.
- تستخدم نماذج GLM على Cerebras المعرّفات
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - مثال على نموذج Hugging Face Inference:
huggingface/deepseek-ai/DeepSeek-R1؛ CLI:openclaw onboard --auth-choice huggingface-api-key. راجع Hugging Face (Inference).
الموفّرون عبر models.providers (عنوان URL مخصّص/أساسي)
استخدم models.providers (أو models.json) لإضافة موفّرين مخصّصين أو
وكلاء متوافقين مع OpenAI/Anthropic.
تنشر العديد من إضافات الموفّرين المضمّنة أدناه بالفعل فهرسًا افتراضيًا.
استخدم إدخالات models.providers.<id> الصريحة فقط عندما تريد تجاوز
عنوان URL الأساسي أو الرؤوس أو قائمة النماذج الافتراضية.
Moonshot AI (Kimi)
يُشحن Moonshot كإضافة موفّر مضمّنة. استخدم الموفّر المضمّن افتراضيًا، وأضف إدخالmodels.providers.moonshot صريحًا فقط عندما
تحتاج إلى تجاوز عنوان URL الأساسي أو بيانات تعريف النموذج:
- الموفّر:
moonshot - المصادقة:
MOONSHOT_API_KEY - مثال على النموذج:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyأوopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
يستخدم Kimi Coding نقطة النهاية المتوافقة مع Anthropic الخاصة بـ Moonshot AI:- الموفّر:
kimi - المصادقة:
KIMI_API_KEY - مثال على النموذج:
kimi/kimi-code
kimi/k2p5 القديم مقبولًا بوصفه معرّف نموذج للتوافق.
Volcano Engine (Doubao)
يوفّر Volcano Engine (火山引擎) إمكانية الوصول إلى Doubao ونماذج أخرى في الصين.- الموفّر:
volcengine(الترميز:volcengine-plan) - المصادقة:
VOLCANO_ENGINE_API_KEY - مثال على النموذج:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/* العام يُسجَّل في الوقت نفسه.
في منتقيات الإعداد/تكوين النموذج، يفضّل خيار مصادقة Volcengine صفوف
volcengine/* و volcengine-plan/* معًا. إذا لم تكن هذه النماذج محمّلة بعد،
فإن OpenClaw يعود إلى الفهرس غير المفلتر بدلًا من عرض منتقٍ فارغ
مقيّد بنطاق الموفّر.
النماذج المتاحة:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (الدولي)
يوفّر BytePlus ARK الوصول إلى النماذج نفسها التي يوفّرها Volcano Engine للمستخدمين الدوليين.- الموفّر:
byteplus(البرمجة:byteplus-plan) - المصادقة:
BYTEPLUS_API_KEY - مثال على النموذج:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/* العام يُسجَّل في الوقت نفسه.
في منتقيات الإعداد/تكوين النموذج، يفضّل خيار مصادقة BytePlus صفوف
byteplus/* و byteplus-plan/* معًا. إذا لم تكن هذه النماذج محمّلة بعد،
فإن OpenClaw يعود إلى الفهرس غير المفلتر بدلًا من عرض منتقٍ فارغ
مقيّد بنطاق الموفّر.
النماذج المتاحة:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
يوفّر Synthetic نماذج متوافقة مع Anthropic خلف الموفّرsynthetic:
- الموفّر:
synthetic - المصادقة:
SYNTHETIC_API_KEY - مثال على النموذج:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
يتم تكوين MiniMax عبرmodels.providers لأنه يستخدم نقاط نهاية مخصّصة:
- MiniMax OAuth (عالمي):
--auth-choice minimax-global-oauth - MiniMax OAuth (الصين):
--auth-choice minimax-cn-oauth - مفتاح API لـ MiniMax (عالمي):
--auth-choice minimax-global-api - مفتاح API لـ MiniMax (الصين):
--auth-choice minimax-cn-api - المصادقة:
MINIMAX_API_KEYلـminimax؛ وMINIMAX_OAUTH_TOKENأوMINIMAX_API_KEYلـminimax-portal
/fast on يعيد كتابة
MiniMax-M2.7 إلى MiniMax-M2.7-highspeed.
تقسيم القدرات المملوك للإضافة:
- تظل افتراضيات النص/الدردشة على
minimax/MiniMax-M2.7 - يكون توليد الصور على
minimax/image-01أوminimax-portal/image-01 - يكون فهم الصور على
MiniMax-VL-01المملوك للإضافة على مساري مصادقة MiniMax كليهما - يظل البحث على الويب على معرّف الموفّر
minimax
LM Studio
يُشحن LM Studio كإضافة موفّر مضمّنة تستخدم API الأصلية:- الموفّر:
lmstudio - المصادقة:
LM_API_TOKEN - عنوان URL الأساسي الافتراضي للاستدلال:
http://localhost:1234/v1
http://localhost:1234/api/v1/models):
/api/v1/models و /api/v1/models/load
للاكتشاف + التحميل التلقائي، ويستخدم /v1/chat/completions للاستدلال افتراضيًا.
راجع /providers/lmstudio للحصول على الإعداد واستكشاف الأخطاء وإصلاحها.
Ollama
يُشحن Ollama كإضافة موفّر مضمّنة ويستخدم API الأصلية الخاصة بـ Ollama:- الموفّر:
ollama - المصادقة: لا شيء مطلوب (خادم محلي)
- مثال على النموذج:
ollama/llama3.3 - التثبيت: https://ollama.com/download
http://127.0.0.1:11434 عندما تشترك
باستخدام OLLAMA_API_KEY، وتضيف إضافة الموفّر المضمّنة Ollama مباشرةً إلى
openclaw onboard ومنتقي النماذج. راجع /providers/ollama
للاطلاع على الإعداد، ووضع السحابة/الوضع المحلي، والإعدادات المخصّصة.
vLLM
يُشحن vLLM كإضافة موفّر مضمّنة للخوادم المحلية/المستضافة ذاتيًا المتوافقة مع OpenAI:- الموفّر:
vllm - المصادقة: اختيارية (بحسب خادمك)
- عنوان URL الأساسي الافتراضي:
http://127.0.0.1:8000/v1
/v1/models):
SGLang
يُشحن SGLang كإضافة موفّر مضمّنة للخوادم السريعة المستضافة ذاتيًا المتوافقة مع OpenAI:- الموفّر:
sglang - المصادقة: اختيارية (بحسب خادمك)
- عنوان URL الأساسي الافتراضي:
http://127.0.0.1:30000/v1
/v1/models):
الوكلاء المحليون (LM Studio وvLLM وLiteLLM وما إلى ذلك)
مثال (متوافق مع OpenAI):- بالنسبة إلى الموفّرين المخصّصين، فإن
reasoningوinputوcostوcontextWindowوmaxTokensاختيارية. وعند حذفها، يستخدم OpenClaw القيم الافتراضية التالية:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- يُنصح بذلك: عيّن قيمًا صريحة تطابق حدود الوكيل/النموذج لديك.
- بالنسبة إلى
api: "openai-completions"على نقاط النهاية غير الأصلية (أيbaseUrlغير فارغ لا يكون مضيفهapi.openai.com)، يفرض OpenClaw القيمةcompat.supportsDeveloperRole: falseلتجنب أخطاء 400 من الموفّر بسبب أدوارdeveloperغير المدعومة. - كما تتجاوز مسارات OpenAI-compatible بنمط الوكيل أيضًا
تشكيل الطلبات الأصلي الخاص بـ OpenAI فقط: لا
service_tier، ولاstoreالخاص بـ Responses، ولا تلميحات لذاكرة التخزين المؤقت للموجّه، ولا تشكيل لحمولة توافق الاستدلال الخاصة بـ OpenAI، ولا رؤوس إسناد مخفية خاصة بـ OpenClaw. - إذا كان
baseUrlفارغًا/محذوفًا، يحتفظ OpenClaw بسلوك OpenAI الافتراضي (الذي يُحل إلىapi.openai.com). - من أجل السلامة، يتم مع ذلك تجاوز
compat.supportsDeveloperRole: trueالصريح على نقاط نهايةopenai-completionsغير الأصلية.
أمثلة CLI
ذو صلة
- النماذج — إعدادات النماذج والأسماء المستعارة
- الفشل الاحتياطي للنماذج — سلاسل الفشل الاحتياطي وسلوك إعادة المحاولة
- مرجع الإعدادات — مفاتيح إعدادات النموذج
- الموفّرون — أدلة الإعداد لكل موفّر