vLLM
vLLM може обслуговувати моделі з відкритим кодом (і деякі користувацькі моделі) через HTTP API, сумісний з OpenAI. OpenClaw може підключатися до vLLM за допомогою APIopenai-completions.
OpenClaw також може автоматично виявляти доступні моделі з vLLM, якщо ви явно погодилися на це через VLLM_API_KEY (підійде будь-яке значення, якщо ваш сервер не вимагає auth) і не визначили явний запис models.providers.vllm.
Швидкий початок
- Запустіть vLLM із сервером, сумісним з OpenAI.
/v1 (наприклад /v1/models, /v1/chat/completions). vLLM часто працює за адресою:
http://127.0.0.1:8000/v1
- Увімкніть це (підійде будь-яке значення, якщо auth не налаштовано):
- Виберіть модель (замініть на один з ідентифікаторів моделей вашого vLLM):
Виявлення моделей (неявний провайдер)
Коли заданоVLLM_API_KEY (або існує профіль auth) і ви не визначили models.providers.vllm, OpenClaw виконає запит:
GET http://127.0.0.1:8000/v1/models
models.providers.vllm, автовиявлення буде пропущено, і вам доведеться визначати моделі вручну.
Явна конфігурація (ручне визначення моделей)
Використовуйте явну конфігурацію, коли:- vLLM працює на іншому хості/порту.
- Ви хочете зафіксувати значення
contextWindow/maxTokens. - Ваш сервер вимагає справжній API-ключ (або ви хочете керувати заголовками).
Усунення неполадок
- Перевірте, що сервер доступний:
- Якщо запити завершуються помилками auth, задайте справжній
VLLM_API_KEY, який відповідає конфігурації вашого сервера, або явно налаштуйте провайдера вmodels.providers.vllm.
Поведінка в стилі проксі
vLLM розглядається як backend/v1, сумісний з OpenAI, у стилі проксі, а не як нативний endpoint OpenAI.
- нативне формування запитів лише для OpenAI тут не застосовується
- немає
service_tier, немаєstoreдля Responses, немає підказок для prompt-cache і немає формування payload для сумісності reasoning OpenAI - приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) не додаються до користувацьких base URL vLLM