vLLM
vLLM dapat menyajikan model open-source (dan beberapa model kustom) melalui API HTTP yang kompatibel dengan OpenAI. OpenClaw dapat terhubung ke vLLM menggunakan APIopenai-completions.
OpenClaw juga dapat menemukan secara otomatis model yang tersedia dari vLLM ketika Anda ikut serta dengan VLLM_API_KEY (nilai apa pun berfungsi jika server Anda tidak menerapkan autentikasi) dan Anda tidak menentukan entri models.providers.vllm secara eksplisit.
Mulai cepat
- Jalankan vLLM dengan server yang kompatibel dengan OpenAI.
/v1 (misalnya /v1/models, /v1/chat/completions). vLLM biasanya berjalan di:
http://127.0.0.1:8000/v1
- Ikut serta (nilai apa pun berfungsi jika tidak ada autentikasi yang dikonfigurasi):
- Pilih model (ganti dengan salah satu ID model vLLM Anda):
Penemuan model (penyedia implisit)
SaatVLLM_API_KEY ditetapkan (atau profil autentikasi tersedia) dan Anda tidak menentukan models.providers.vllm, OpenClaw akan memanggil:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm secara eksplisit, penemuan otomatis dilewati dan Anda harus menentukan model secara manual.
Konfigurasi eksplisit (model manual)
Gunakan konfigurasi eksplisit ketika:- vLLM berjalan pada host/port yang berbeda.
- Anda ingin menetapkan nilai
contextWindow/maxTokens. - Server Anda memerlukan API key yang nyata (atau Anda ingin mengontrol header).
Pemecahan masalah
- Periksa apakah server dapat dijangkau:
- Jika permintaan gagal dengan kesalahan autentikasi, tetapkan
VLLM_API_KEYyang nyata dan sesuai dengan konfigurasi server Anda, atau konfigurasikan penyedia secara eksplisit di bawahmodels.providers.vllm.
Perilaku gaya proksi
vLLM diperlakukan sebagai backend/v1 yang kompatibel dengan OpenAI bergaya proksi, bukan endpoint OpenAI native.
- pembentukan permintaan khusus OpenAI native tidak berlaku di sini
- tidak ada
service_tier, tidak ada Responsesstore, tidak ada petunjuk prompt-cache, dan tidak ada pembentukan payload kompatibilitas reasoning OpenAI - header atribusi OpenClaw tersembunyi (
originator,version,User-Agent) tidak disisipkan pada URL dasar vLLM kustom