LiteLLM
يُعد LiteLLM بوابة LLM مفتوحة المصدر توفّر واجهة API موحدة لأكثر من 100 موفّر نماذج. مرّر OpenClaw عبر LiteLLM للحصول على تتبع مركزي للتكلفة، والتسجيل، والمرونة في تبديل الواجهات الخلفية من دون تغيير إعداد OpenClaw.لماذا تستخدم LiteLLM مع OpenClaw؟
- تتبع التكلفة — اعرف بالضبط ما الذي ينفقه OpenClaw عبر جميع النماذج
- توجيه النماذج — بدّل بين Claude وGPT-4 وGemini وBedrock من دون تغييرات في الإعداد
- المفاتيح الافتراضية — أنشئ مفاتيح مع حدود إنفاق لـ OpenClaw
- التسجيل — سجلات كاملة للطلب/الاستجابة لأغراض التصحيح
- المسارات الاحتياطية — تراجع احتياطي تلقائي إذا كان موفّرك الأساسي متوقفًا
بدء سريع
عبر onboarding
الإعداد اليدوي
- ابدأ LiteLLM Proxy:
- وجّه OpenClaw إلى LiteLLM:
الإعداد
متغيرات البيئة
ملف الإعداد
المفاتيح الافتراضية
أنشئ مفتاحًا مخصصًا لـ OpenClaw مع حدود للإنفاق:LITELLM_API_KEY.
توجيه النماذج
يمكن لـ LiteLLM توجيه طلبات النماذج إلى واجهات خلفية مختلفة. اضبط ذلك فيconfig.yaml الخاص بـ LiteLLM:
claude-opus-4-6 — ويتولى LiteLLM عملية التوجيه.
عرض الاستخدام
تحقق من لوحة تحكم LiteLLM أو من واجهة API:ملاحظات
- يعمل LiteLLM افتراضيًا على
http://localhost:4000 - يتصل OpenClaw عبر نقطة النهاية المتوافقة مع OpenAI ذات نمط proxy في LiteLLM
/v1 - لا تنطبق صياغة الطلبات الأصلية الخاصة بـ OpenAI فقط عند المرور عبر LiteLLM:
لا
service_tier، ولاstoreالخاصة بـ Responses، ولا تلميحات prompt-cache، ولا تشكيل الحمولات الخاصة بتوافق reasoning في OpenAI - لا يتم حقن ترويسات الإسناد المخفية الخاصة بـ OpenClaw (
originatorوversionوUser-Agent) على base URLs المخصصة لـ LiteLLM