vLLM
vLLM, OpenAI uyumlu bir HTTP API üzerinden açık kaynaklı (ve bazı özel) modelleri sunabilir. OpenClaw, vLLM’eopenai-completions API’sini kullanarak bağlanır.
OpenClaw ayrıca, VLLM_API_KEY ile açıkça etkinleştirdiğinizde (sunucunuz kimlik doğrulamayı zorlamıyorsa herhangi bir değer çalışır) ve açık bir models.providers.vllm girdisi tanımlamadığınızda, vLLM’den kullanılabilir modelleri otomatik keşfedebilir.
| Özellik | Değer |
|---|---|
| Sağlayıcı ID’si | vllm |
| API | openai-completions (OpenAI uyumlu) |
| Kimlik doğrulama | VLLM_API_KEY ortam değişkeni |
| Varsayılan taban URL | http://127.0.0.1:8000/v1 |
Başlangıç
OpenAI uyumlu bir sunucuyla vLLM'i başlatın
Taban URL’niz
/v1 uç noktalarını sunmalıdır (ör. /v1/models, /v1/chat/completions). vLLM yaygın olarak şu adreste çalışır:API anahtarı ortam değişkenini ayarlayın
Sunucunuz kimlik doğrulamayı zorlamıyorsa herhangi bir değer çalışır:
Model keşfi (örtük sağlayıcı)
VLLM_API_KEY ayarlandığında (veya bir kimlik doğrulama profili mevcut olduğunda) ve models.providers.vllm tanımlamadığınızda, OpenClaw şu isteği sorgular:
models.providers.vllm değerini açıkça ayarlarsanız otomatik keşif atlanır ve modelleri elle tanımlamanız gerekir.Açık yapılandırma (manuel modeller)
Şu durumlarda açık yapılandırma kullanın:- vLLM farklı bir ana makinede veya bağlantı noktasında çalışıyorsa
contextWindowveyamaxTokensdeğerlerini sabitlemek istiyorsanız- Sunucunuz gerçek bir API anahtarı gerektiriyorsa (veya üst bilgileri kontrol etmek istiyorsanız)
Gelişmiş notlar
Proxy tarzı davranış
Proxy tarzı davranış
vLLM, yerel bir
OpenAI uç noktası olarak değil, proxy tarzı OpenAI uyumlu bir
/v1 backend’i olarak ele alınır. Bu şu anlama gelir:| Davranış | Uygulanır mı? |
|---|---|
| Yerel OpenAI istek şekillendirmesi | Hayır |
service_tier | Gönderilmez |
Responses store | Gönderilmez |
| İstem önbelleği ipuçları | Gönderilmez |
| OpenAI reasoning-compat yük şekillendirmesi | Uygulanmaz |
| Gizli OpenClaw ilişkilendirme üst bilgileri | Özel taban URL’lerde eklenmez |
Özel taban URL
Özel taban URL
vLLM sunucunuz varsayılan olmayan bir ana makinede veya bağlantı noktasında çalışıyorsa, açık sağlayıcı yapılandırmasında
baseUrl ayarlayın:Sorun giderme
Sunucuya ulaşılamıyor
Sunucuya ulaşılamıyor
vLLM sunucusunun çalıştığını ve erişilebilir olduğunu denetleyin:Bağlantı hatası görürseniz ana makineyi, bağlantı noktasını ve vLLM’in OpenAI uyumlu sunucu kipinde başlatıldığını doğrulayın.
İsteklerde kimlik doğrulama hataları
İsteklerde kimlik doğrulama hataları
İstekler kimlik doğrulama hatalarıyla başarısız oluyorsa, sunucu yapılandırmanızla eşleşen gerçek bir
VLLM_API_KEY ayarlayın veya sağlayıcıyı models.providers.vllm altında açıkça yapılandırın.Hiç model keşfedilmedi
Hiç model keşfedilmedi
Otomatik keşif için
VLLM_API_KEY ayarlanmış olmalı ve açık bir models.providers.vllm yapılandırma girdisi bulunmamalıdır. Sağlayıcıyı elle tanımladıysanız OpenClaw keşfi atlar ve yalnızca bildirdiğiniz modelleri kullanır.İlgili
Model seçimi
Sağlayıcıları, model başvurularını ve yük devretme davranışını seçme.
OpenAI
Yerel OpenAI sağlayıcısı ve OpenAI uyumlu yol davranışı.
OAuth ve kimlik doğrulama
Kimlik doğrulama ayrıntıları ve kimlik bilgisi yeniden kullanım kuralları.
Sorun giderme
Yaygın sorunlar ve bunların nasıl çözüleceği.