vLLM
vLLM, açık kaynaklı (ve bazı özel) modelleri OpenAI uyumlu bir HTTP API üzerinden sunabilir. OpenClaw,openai-completions API’sini kullanarak vLLM’ye bağlanabilir.
OpenClaw, VLLM_API_KEY ile etkinleştirdiğinizde (sunucunuz kimlik doğrulamayı zorunlu kılmıyorsa herhangi bir değer çalışır) ve açık bir models.providers.vllm girdisi tanımlamadığınızda vLLM’den kullanılabilir modelleri otomatik olarak keşfedebilir.
Hızlı başlangıç
- vLLM’yi OpenAI uyumlu bir sunucuyla başlatın.
/v1 uç noktalarını açığa çıkarmalıdır (ör. /v1/models, /v1/chat/completions). vLLM yaygın olarak şu adreste çalışır:
http://127.0.0.1:8000/v1
- Etkinleştirin (kimlik doğrulama yapılandırılmadıysa herhangi bir değer çalışır):
- Bir model seçin (vLLM model kimliklerinizden biriyle değiştirin):
Model keşfi (örtük sağlayıcı)
VLLM_API_KEY ayarlandığında (veya bir kimlik doğrulama profili mevcut olduğunda) ve models.providers.vllm tanımlamadığınızda, OpenClaw şunu sorgular:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm değerini açıkça ayarlarsanız, otomatik keşif atlanır ve modelleri manuel olarak tanımlamanız gerekir.
Açık yapılandırma (manuel modeller)
Açık yapılandırmayı şu durumlarda kullanın:- vLLM farklı bir ana makine/bağlantı noktasında çalışıyorsa.
contextWindow/maxTokensdeğerlerini sabitlemek istiyorsanız.- Sunucunuz gerçek bir API anahtarı gerektiriyorsa (veya üstbilgileri denetlemek istiyorsanız).
Sorun giderme
- Sunucunun erişilebilir olduğunu kontrol edin:
- İstekler kimlik doğrulama hatalarıyla başarısız oluyorsa, sunucu yapılandırmanızla eşleşen gerçek bir
VLLM_API_KEYayarlayın veya sağlayıcıyımodels.providers.vllmaltında açıkça yapılandırın.
Proxy tarzı davranış
vLLM, yerel bir OpenAI uç noktası olarak değil, proxy tarzı OpenAI uyumlu bir/v1 arka ucu olarak ele alınır.
- yerel OpenAI’ya özgü istek şekillendirme burada uygulanmaz
service_tieryok, Responsesstoreyok, istem önbelleği ipuçları yok ve OpenAI reasoning uyumluluk yükü şekillendirmesi yok- gizli OpenClaw atıf üstbilgileri (
originator,version,User-Agent) özel vLLM temel URL’lerine eklenmez