Ollama
Ollama — це локальне середовище виконання LLM, яке спрощує запуск моделей з відкритим кодом на вашому комп’ютері. OpenClaw інтегрується з нативним API Ollama (/api/chat), підтримує потокову передачу та виклик інструментів, а також може автоматично виявляти локальні моделі Ollama, якщо ви ввімкнете це за допомогою OLLAMA_API_KEY (або профілю автентифікації) і не визначите явний запис models.providers.ollama.
Користувачі віддаленої Ollama: не використовуйте OpenAI-сумісну URL-адресу /v1 (http://host:11434/v1) з OpenClaw. Це порушує виклик інструментів, і моделі можуть виводити необроблений JSON інструментів як звичайний текст. Натомість використовуйте нативну URL-адресу API Ollama: baseUrl: "http://host:11434" (без /v1).
Швидкий старт
Онбординг (рекомендовано)
Найшвидший спосіб налаштувати Ollama — через онбординг:
Виберіть Ollama зі списку провайдерів. Онбординг:
- Запитає базову URL-адресу Ollama, за якою доступний ваш інстанс (типово
http://127.0.0.1:11434).
- Дозволить вибрати Cloud + Local (хмарні й локальні моделі) або Local (лише локальні моделі).
- Відкриє потік входу через браузер, якщо ви виберете Cloud + Local і не ввійшли в ollama.com.
- Виявить доступні моделі та запропонує типові значення.
- Автоматично виконає завантаження вибраної моделі, якщо вона недоступна локально.
Також підтримується неінтерактивний режим:
openclaw onboard --non-interactive \
--auth-choice ollama \
--accept-risk
За потреби вкажіть власну базову URL-адресу або модель:
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://ollama-host:11434" \
--custom-model-id "qwen3.5:27b" \
--accept-risk
Ручне налаштування
-
Установіть Ollama: https://ollama.com/download
-
Завантажте локальну модель, якщо хочете локальний інференс:
ollama pull gemma4
# або
ollama pull gpt-oss:20b
# або
ollama pull llama3.3
- Якщо вам також потрібні хмарні моделі, увійдіть:
- Запустіть онбординг і виберіть
Ollama:
Local: лише локальні моделі
Cloud + Local: локальні моделі плюс хмарні моделі
- Хмарні моделі, як-от
kimi-k2.5:cloud, minimax-m2.7:cloud і glm-5.1:cloud, не потребують локального ollama pull
Наразі OpenClaw пропонує:
- локальне типове значення:
gemma4
- хмарні типові значення:
kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud
- Якщо ви віддаєте перевагу ручному налаштуванню, увімкніть Ollama для OpenClaw напряму (підійде будь-яке значення; Ollama не потребує справжнього ключа):
# Set environment variable
export OLLAMA_API_KEY="ollama-local"
# Or configure in your config file
openclaw config set models.providers.ollama.apiKey "ollama-local"
- Перегляньте або змініть моделі:
openclaw models list
openclaw models set ollama/gemma4
- Або встановіть типову модель у конфігурації:
{
agents: {
defaults: {
model: { primary: "ollama/gemma4" },
},
},
}
Виявлення моделей (неявний провайдер)
Коли ви задаєте OLLAMA_API_KEY (або профіль автентифікації) і не визначаєте models.providers.ollama, OpenClaw виявляє моделі з локального інстансу Ollama за адресою http://127.0.0.1:11434:
- Виконує запити до
/api/tags
- Використовує best-effort-запити до
/api/show, щоб читати contextWindow, якщо він доступний
- Позначає
reasoning за допомогою евристики назви моделі (r1, reasoning, think)
- Установлює
maxTokens на типове максимальне обмеження токенів Ollama, яке використовує OpenClaw
- Установлює всі вартості в
0
Це дозволяє уникнути ручного додавання моделей і водночас зберігати каталог узгодженим із локальним інстансом Ollama.
Щоб побачити, які моделі доступні:
ollama list
openclaw models list
Щоб додати нову модель, просто завантажте її через Ollama:
Нова модель буде автоматично виявлена та стане доступною для використання.
Якщо ви явно задасте models.providers.ollama, автоматичне виявлення буде пропущено, і вам доведеться визначати моделі вручну (див. нижче).
Конфігурація
Базове налаштування (неявне виявлення)
Найпростіший спосіб увімкнути Ollama — через змінну середовища:
export OLLAMA_API_KEY="ollama-local"
Явне налаштування (ручне визначення моделей)
Використовуйте явну конфігурацію, якщо:
- Ollama працює на іншому хості або порту.
- Ви хочете примусово задати конкретні вікна контексту або списки моделей.
- Ви хочете повністю вручну визначати моделі.
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
Якщо задано OLLAMA_API_KEY, ви можете не вказувати apiKey у записі провайдера, і OpenClaw підставить його для перевірок доступності.
Власна базова URL-адреса (явна конфігурація)
Якщо Ollama працює на іншому хості або порту (явна конфігурація вимикає автоматичне виявлення, тому моделі потрібно визначати вручну):
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // Без /v1 - використовуйте нативну URL-адресу API Ollama
api: "ollama", // Задайте явно, щоб гарантувати нативну поведінку виклику інструментів
},
},
},
}
Не додавайте /v1 до URL-адреси. Шлях /v1 використовує OpenAI-сумісний режим, у якому виклик інструментів ненадійний. Використовуйте базову URL-адресу Ollama без суфікса шляху.
Вибір моделі
Після налаштування всі ваші моделі Ollama будуть доступні:
{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}
Хмарні моделі
Хмарні моделі дають змогу використовувати розміщені в хмарі моделі (наприклад, kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud) разом із вашими локальними моделями.
Щоб використовувати хмарні моделі, виберіть режим Cloud + Local під час налаштування. Майстер перевіряє, чи ви ввійшли в систему, і за потреби відкриває потік входу через браузер. Якщо автентифікацію не вдається перевірити, майстер повертається до типових локальних моделей.
Ви також можете ввійти безпосередньо на ollama.com/signin.
Ollama Web Search
OpenClaw також підтримує Ollama Web Search як вбудований провайдер web_search.
- Він використовує налаштований вами хост Ollama (
models.providers.ollama.baseUrl, якщо задано, інакше http://127.0.0.1:11434).
- Він не потребує ключа.
- Для нього потрібно, щоб Ollama працювала і ви були авторизовані через
ollama signin.
Виберіть Ollama Web Search під час openclaw onboard або openclaw configure --section web, або задайте:
{
tools: {
web: {
search: {
provider: "ollama",
},
},
},
}
Повні відомості про налаштування та поведінку див. у Ollama Web Search.
Додатково
Моделі міркування
OpenClaw типово вважає моделі з назвами на кшталт deepseek-r1, reasoning або think такими, що підтримують міркування:
ollama pull deepseek-r1:32b
Вартість моделей
Ollama є безкоштовною і працює локально, тому вартість усіх моделей встановлена на рівні $0.
Конфігурація потокової передачі
Інтеграція OpenClaw з Ollama типово використовує нативний API Ollama (/api/chat), який повністю підтримує одночасно потокову передачу та виклик інструментів. Жодного спеціального налаштування не потрібно.
Застарілий OpenAI-сумісний режим
Виклик інструментів у OpenAI-сумісному режимі ненадійний. Використовуйте цей режим лише якщо вам потрібен формат OpenAI для проксі й ви не залежите від нативної поведінки виклику інструментів.
Якщо вам потрібно використовувати натомість OpenAI-сумісну кінцеву точку (наприклад, за проксі, який підтримує лише формат OpenAI), явно задайте api: "openai-completions":
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // типово: true
apiKey: "ollama-local",
models: [...]
}
}
}
}
Цей режим може не підтримувати одночасно потокову передачу й виклик інструментів. Може знадобитися вимкнути потокову передачу за допомогою params: { streaming: false } у конфігурації моделі.
Коли з Ollama використовується api: "openai-completions", OpenClaw типово додає options.num_ctx, щоб Ollama не переходила непомітно на вікно контексту 4096. Якщо ваш проксі або upstream відхиляє невідомі поля options, вимкніть цю поведінку:
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}
Вікна контексту
Для автоматично виявлених моделей OpenClaw використовує вікно контексту, яке повідомляє Ollama, якщо воно доступне; інакше використовується типове вікно контексту Ollama, яке застосовує OpenClaw. Ви можете перевизначити contextWindow і maxTokens у явній конфігурації провайдера.
Усунення несправностей
Ollama не виявлено
Переконайтеся, що Ollama запущена, що ви задали OLLAMA_API_KEY (або профіль автентифікації), і що ви не визначили явний запис models.providers.ollama:
І що API доступний:
curl http://localhost:11434/api/tags
Немає доступних моделей
Якщо вашої моделі немає у списку, виконайте одну з дій:
- Завантажте модель локально, або
- Явно визначте модель у
models.providers.ollama.
Щоб додати моделі:
ollama list # Переглянути, що встановлено
ollama pull gemma4
ollama pull gpt-oss:20b
ollama pull llama3.3 # Або іншу модель
У з’єднанні відмовлено
Переконайтеся, що Ollama працює на правильному порту:
# Перевірити, чи запущена Ollama
ps aux | grep ollama
# Або перезапустити Ollama
ollama serve
Див. також