vLLM
vLLM може обслуговувати open-source (і деякі кастомні) моделі через OpenAI-сумісний HTTP API. OpenClaw підключається до vLLM за допомогою APIopenai-completions.
OpenClaw також може автоматично виявляти доступні моделі з vLLM, коли ви явно вмикаєте це за допомогою VLLM_API_KEY (підійде будь-яке значення, якщо ваш сервер не вимагає автентифікації) і не визначаєте явний запис models.providers.vllm.
| Властивість | Значення |
|---|---|
| ID провайдера | vllm |
| API | openai-completions (OpenAI-сумісний) |
| Автентифікація | змінна середовища VLLM_API_KEY |
| Базовий URL за замовчуванням | http://127.0.0.1:8000/v1 |
Початок роботи
Запустіть vLLM з OpenAI-сумісним сервером
Ваш базовий URL має надавати ендпойнти
/v1 (наприклад, /v1/models, /v1/chat/completions). vLLM зазвичай працює на:Установіть змінну середовища для API-ключа
Підійде будь-яке значення, якщо ваш сервер не вимагає автентифікації:
Виявлення моделей (неявний провайдер)
КолиVLLM_API_KEY встановлено (або існує профіль автентифікації) і ви не визначаєте models.providers.vllm, OpenClaw виконує запит:
Якщо ви явно задаєте
models.providers.vllm, автоматичне виявлення пропускається, і вам потрібно визначити моделі вручну.Явна конфігурація (моделі вручну)
Використовуйте явну конфігурацію, коли:- vLLM працює на іншому хості або порту
- Ви хочете зафіксувати значення
contextWindowабоmaxTokens - Ваш сервер вимагає справжній API-ключ (або ви хочете керувати заголовками)
Додаткові примітки
Поведінка в стилі проксі
Поведінка в стилі проксі
vLLM розглядається як OpenAI-сумісний бекенд
/v1 у стилі проксі, а не як нативний
ендпойнт OpenAI. Це означає:| Поведінка | Застосовується? |
|---|---|
| Нативне формування запитів OpenAI | Ні |
service_tier | Не надсилається |
Відповіді store | Не надсилаються |
| Підказки кешу промптів | Не надсилаються |
| Формування payload для сумісності з reasoning OpenAI | Не застосовується |
| Приховані заголовки атрибуції OpenClaw | Не додаються в кастомні базові URL |
Кастомний базовий URL
Кастомний базовий URL
Якщо ваш сервер vLLM працює на нестандартному хості або порту, установіть
baseUrl у явній конфігурації провайдера:Усунення неполадок
Сервер недоступний
Сервер недоступний
Переконайтеся, що сервер vLLM запущений і доступний:Якщо ви бачите помилку з’єднання, перевірте хост, порт і те, що vLLM запущено в режимі OpenAI-сумісного сервера.
Помилки автентифікації в запитах
Помилки автентифікації в запитах
Якщо запити завершуються помилками автентифікації, установіть справжній
VLLM_API_KEY, який відповідає конфігурації вашого сервера, або явно налаштуйте провайдера в models.providers.vllm.Моделі не виявлено
Моделі не виявлено
Для автоматичного виявлення потрібно, щоб
VLLM_API_KEY було встановлено і не було явного запису конфігурації models.providers.vllm. Якщо ви визначили провайдера вручну, OpenClaw пропускає виявлення й використовує лише оголошені вами моделі.Пов’язане
Вибір моделі
Вибір провайдерів, посилань на моделі та поведінки failover.
OpenAI
Нативний провайдер OpenAI і поведінка OpenAI-сумісного маршруту.
OAuth і автентифікація
Деталі автентифікації та правила повторного використання облікових даних.
Усунення неполадок
Поширені проблеми та способи їх вирішення.