vLLM
vLLM dapat menyajikan model open-source (dan beberapa model kustom) melalui API HTTP yang kompatibel dengan OpenAI. OpenClaw terhubung ke vLLM menggunakan APIopenai-completions.
OpenClaw juga dapat menemukan otomatis model yang tersedia dari vLLM saat Anda melakukan opt-in dengan VLLM_API_KEY (nilai apa pun berfungsi jika server Anda tidak menerapkan auth) dan Anda tidak mendefinisikan entri models.providers.vllm secara eksplisit.
| Property | Value |
|---|---|
| ID Provider | vllm |
| API | openai-completions (kompatibel dengan OpenAI) |
| Auth | Variabel environment VLLM_API_KEY |
| Base URL default | http://127.0.0.1:8000/v1 |
Memulai
Mulai vLLM dengan server yang kompatibel dengan OpenAI
Base URL Anda harus mengekspos endpoint
/v1 (mis. /v1/models, /v1/chat/completions). vLLM umumnya berjalan di:Penemuan model (provider implisit)
SaatVLLM_API_KEY disetel (atau profil auth ada) dan Anda tidak mendefinisikan models.providers.vllm, OpenClaw mengueri:
Jika Anda menyetel
models.providers.vllm secara eksplisit, penemuan otomatis dilewati dan Anda harus mendefinisikan model secara manual.Konfigurasi eksplisit (model manual)
Gunakan konfigurasi eksplisit ketika:- vLLM berjalan di host atau port yang berbeda
- Anda ingin mem-pin nilai
contextWindowataumaxTokens - Server Anda memerlukan API key sungguhan (atau Anda ingin mengontrol header)
Catatan lanjutan
Perilaku bergaya proxy
Perilaku bergaya proxy
vLLM diperlakukan sebagai backend
/v1 bergaya proxy yang kompatibel dengan OpenAI, bukan endpoint OpenAI native. Ini berarti:| Behavior | Applied? |
|---|---|
| Pembentukan permintaan OpenAI native | Tidak |
service_tier | Tidak dikirim |
Responses store | Tidak dikirim |
| Petunjuk prompt-cache | Tidak dikirim |
| Pembentukan payload kompatibilitas reasoning OpenAI | Tidak diterapkan |
| Header atribusi OpenClaw tersembunyi | Tidak disuntikkan pada base URL kustom |
Base URL kustom
Base URL kustom
Jika server vLLM Anda berjalan di host atau port non-default, setel
baseUrl dalam konfigurasi provider eksplisit:Pemecahan masalah
Server tidak dapat dijangkau
Server tidak dapat dijangkau
Periksa bahwa server vLLM berjalan dan dapat diakses:Jika Anda melihat error koneksi, verifikasi host, port, dan bahwa vLLM dimulai dengan mode server yang kompatibel dengan OpenAI.
Error auth pada permintaan
Error auth pada permintaan
Jika permintaan gagal dengan error auth, setel
VLLM_API_KEY sungguhan yang sesuai dengan konfigurasi server Anda, atau konfigurasikan provider secara eksplisit di bawah models.providers.vllm.Tidak ada model yang ditemukan
Tidak ada model yang ditemukan
Penemuan otomatis memerlukan
VLLM_API_KEY disetel dan tidak ada entri konfigurasi models.providers.vllm yang eksplisit. Jika Anda telah mendefinisikan provider secara manual, OpenClaw melewati penemuan dan hanya menggunakan model yang Anda deklarasikan.Terkait
Pemilihan model
Memilih provider, ref model, dan perilaku failover.
OpenAI
Provider OpenAI native dan perilaku rute yang kompatibel dengan OpenAI.
OAuth dan auth
Detail auth dan aturan penggunaan ulang kredensial.
Pemecahan masalah
Masalah umum dan cara mengatasinya.