الانتقال إلى المحتوى الرئيسي

موفّرات النماذج

يمكن لـ OpenClaw استخدام العديد من موفّرات LLM. اختر واحدًا، وقم بالمصادقة، ثم عيّن النموذج الافتراضي بصيغة provider/model.

البدء السريع (خطوتان)

  1. قم بالمصادقة مع الموفّر (عادةً عبر openclaw onboard).
  2. عيّن النموذج الافتراضي:
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

الموفّرون المدعومون (مجموعة البداية)

متغيرات موفّرات إضافية مضمّنة

  • anthropic-vertex - دعم Anthropic ضمني على Google Vertex عند توفر بيانات اعتماد Vertex؛ لا يوجد خيار مصادقة منفصل أثناء الإعداد الأولي
  • copilot-proxy - جسر Copilot Proxy محلي لـ VS Code؛ استخدم openclaw onboard --auth-choice copilot-proxy
  • google-gemini-cli - تدفق OAuth غير رسمي لـ Gemini CLI؛ يتطلب تثبيت gemini محليًا (brew install gemini-cli أو npm install -g @google/gemini-cli)؛ النموذج الافتراضي هو google-gemini-cli/gemini-3-flash-preview؛ استخدم openclaw onboard --auth-choice google-gemini-cli أو openclaw models auth login --provider google-gemini-cli --set-default
للاطلاع على كتالوج الموفّرات الكامل (xAI وGroq وMistral وغيرها) والتكوين المتقدم، راجع موفّرات النماذج.