inferrs
inferrs може обслуговувати локальні моделі через OpenAI-сумісний API/v1. OpenClaw працює з inferrs через загальний шлях
openai-completions.
Наразі inferrs найкраще розглядати як користувацький саморозміщений
OpenAI-сумісний бекенд, а не як окремий Plugin провайдера OpenClaw.
Початок роботи
Повний приклад конфігурації
У цьому прикладі використовується Gemma 4 на локальному серверіinferrs.
Додатково
Чому важливий requiresStringContent
Чому важливий requiresStringContent
Деякі маршрути Chat Completions в OpenClaw згорне частини вмісту, що складаються лише з тексту, у звичайні рядки перед надсиланням запиту.
inferrs приймають лише рядковий
messages[].content, а не структуровані масиви частин вмісту.Застереження щодо Gemma і схеми інструментів
Застереження щодо Gemma і схеми інструментів
Деякі поточні комбінації Це вимикає поверхню схеми інструментів OpenClaw для моделі й може зменшити навантаження на підказку для суворіших локальних бекендів.Якщо малі прямі запити й далі працюють, але звичайні ходи агента OpenClaw все ще
аварійно завершуються всередині
inferrs + Gemma приймають невеликі прямі
запити до /v1/chat/completions, але все одно завершуються помилкою на повних
ходах runtime агента OpenClaw.Якщо таке трапляється, спершу спробуйте це:inferrs, то решта проблеми зазвичай пов’язана з
поведінкою моделі/сервера вище за течією, а не з транспортним шаром OpenClaw.Ручна smoke-перевірка
Ручна smoke-перевірка
Після налаштування перевірте обидва шари:Якщо перша команда працює, а друга — ні, перегляньте розділ усунення несправностей нижче.
Поведінка у стилі проксі
Поведінка у стилі проксі
inferrs розглядається як OpenAI-сумісний бекенд /v1 у стилі проксі, а не як
нативна кінцева точка OpenAI.- Формування запитів, притаманне лише нативному OpenAI, тут не застосовується
- Немає
service_tier, немає Responsesstore, немає підказок кешу промптів і немає формування payload сумісності reasoning для OpenAI - Приховані заголовки атрибуції OpenClaw (
originator,version,User-Agent) не додаються для користувацьких базових URLinferrs
Усунення несправностей
curl /v1/models завершується помилкою
curl /v1/models завершується помилкою
inferrs не запущено, він недоступний або не прив’язаний до очікуваного
хоста/порту. Переконайтеся, що сервер запущений і слухає на адресі, яку ви
налаштували.messages[].content очікує рядок
messages[].content очікує рядок
Установіть
compat.requiresStringContent: true у записі моделі. Дивіться
розділ requiresStringContent вище для подробиць.Прямі виклики /v1/chat/completions проходять, але openclaw infer model run завершується помилкою
Прямі виклики /v1/chat/completions проходять, але openclaw infer model run завершується помилкою
Спробуйте встановити
compat.supportsTools: false, щоб вимкнути поверхню схеми інструментів.
Дивіться застереження щодо схеми інструментів для Gemma вище.inferrs усе ще аварійно завершується на більших ходах агента
inferrs усе ще аварійно завершується на більших ходах агента
Якщо OpenClaw більше не отримує помилок схеми, але
inferrs усе ще аварійно завершується на більших
ходах агента, вважайте це обмеженням inferrs або моделі вище за течією. Зменште
навантаження на промпт або перейдіть на інший локальний бекенд чи модель.Дивіться також
Локальні моделі
Запуск OpenClaw із локальними серверами моделей.
Усунення несправностей Gateway
Налагодження локальних OpenAI-сумісних бекендів, які проходять прямі перевірки, але не проходять запуски агента.
Провайдери моделей
Огляд усіх провайдерів, посилань на моделі та поведінки перемикання при відмові.