Przejdź do głównej treści

Ollama

OpenClaw integruje się z natywnym API Ollama (/api/chat) dla hostowanych modeli chmurowych oraz lokalnych/samodzielnie hostowanych serwerów Ollama. Możesz używać Ollama w trzech trybach: Cloud + Local przez dostępny host Ollama, Cloud only względem https://ollama.com albo Local only względem dostępnego hosta Ollama.
Użytkownicy zdalnego Ollama: Nie używaj adresu URL /v1 zgodnego z OpenAI (http://host:11434/v1) z OpenClaw. To psuje wywoływanie narzędzi i modele mogą zwracać surowy JSON narzędzi jako zwykły tekst. Zamiast tego użyj natywnego adresu URL API Ollama: baseUrl: "http://host:11434" (bez /v1).

Pierwsze kroki

Wybierz preferowaną metodę konfiguracji i tryb.
Najlepsze dla: najszybszej drogi do działającej konfiguracji Ollama w chmurze lub lokalnie.
1

Uruchom onboarding

openclaw onboard
Wybierz Ollama z listy dostawców.
2

Wybierz tryb

  • Cloud + Local — lokalny host Ollama plus modele chmurowe kierowane przez tego hosta
  • Cloud only — hostowane modele Ollama przez https://ollama.com
  • Local only — tylko modele lokalne
3

Wybierz model

Cloud only prosi o OLLAMA_API_KEY i sugeruje domyślne modele chmurowe hostowane. Cloud + Local oraz Local only proszą o bazowy URL Ollama, wykrywają dostępne modele i automatycznie pobierają wybrany model lokalny, jeśli nie jest jeszcze dostępny. Cloud + Local sprawdza też, czy ten host Ollama jest zalogowany do dostępu chmurowego.
4

Sprawdź, czy model jest dostępny

openclaw models list --provider ollama

Tryb nieinteraktywny

openclaw onboard --non-interactive \
  --auth-choice ollama \
  --accept-risk
Opcjonalnie podaj niestandardowy bazowy URL lub model:
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --custom-base-url "http://ollama-host:11434" \
  --custom-model-id "qwen3.5:27b" \
  --accept-risk

Modele chmurowe

Cloud + Local używa dostępnego hosta Ollama jako punktu sterowania zarówno dla modeli lokalnych, jak i chmurowych. To preferowany przez Ollama hybrydowy przepływ pracy.Podczas konfiguracji użyj Cloud + Local. OpenClaw poprosi o bazowy URL Ollama, wykryje modele lokalne z tego hosta i sprawdzi, czy host jest zalogowany do dostępu chmurowego przez ollama signin. Gdy host jest zalogowany, OpenClaw sugeruje też domyślne hostowane modele chmurowe, takie jak kimi-k2.5:cloud, minimax-m2.7:cloud i glm-5.1:cloud.Jeśli host nie jest jeszcze zalogowany, OpenClaw utrzyma konfigurację tylko lokalną, dopóki nie uruchomisz ollama signin.

Wykrywanie modeli (provider niejawny)

Gdy ustawisz OLLAMA_API_KEY (lub profil auth) i nie zdefiniujesz models.providers.ollama, OpenClaw wykryje modele z lokalnej instancji Ollama pod adresem http://127.0.0.1:11434.
ZachowanieSzczegóły
Zapytanie kataloguOdpytuje /api/tags
Wykrywanie możliwościUżywa wyszukiwań /api/show typu best-effort do odczytu contextWindow i wykrywania możliwości (w tym vision)
Modele visionModele z możliwością vision zgłaszaną przez /api/show są oznaczane jako obsługujące obrazy (input: ["text", "image"]), więc OpenClaw automatycznie wstrzykuje obrazy do promptu
Wykrywanie reasoningOznacza reasoning za pomocą heurystyki nazwy modelu (r1, reasoning, think)
Limity tokenówUstawia maxTokens na domyślny limit maksymalnej liczby tokenów Ollama używany przez OpenClaw
KosztyUstawia wszystkie koszty na 0
Pozwala to uniknąć ręcznego definiowania modeli, a jednocześnie utrzymać katalog zgodny z lokalną instancją Ollama.
# Zobacz, jakie modele są dostępne
ollama list
openclaw models list
Aby dodać nowy model, po prostu pobierz go przez Ollama:
ollama pull mistral
Nowy model zostanie automatycznie wykryty i będzie gotowy do użycia.
Jeśli jawnie ustawisz models.providers.ollama, automatyczne wykrywanie zostanie pominięte i modele trzeba będzie zdefiniować ręcznie. Zobacz sekcję jawnej konfiguracji poniżej.

Konfiguracja

Najprostsza ścieżka włączenia trybu tylko lokalnego to zmienna środowiskowa:
export OLLAMA_API_KEY="ollama-local"
Jeśli OLLAMA_API_KEY jest ustawione, możesz pominąć apiKey we wpisie providera, a OpenClaw uzupełni je na potrzeby sprawdzania dostępności.

Wybór modelu

Po skonfigurowaniu wszystkie modele Ollama są dostępne:
{
  agents: {
    defaults: {
      model: {
        primary: "ollama/gpt-oss:20b",
        fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
      },
    },
  },
}
OpenClaw obsługuje Ollama Web Search jako wbudowanego providera web_search.
WłaściwośćSzczegóły
HostUżywa skonfigurowanego hosta Ollama (models.providers.ollama.baseUrl, jeśli ustawione, w przeciwnym razie http://127.0.0.1:11434)
AuthBez klucza
WymaganieOllama musi działać i być zalogowane przez ollama signin
Wybierz Ollama Web Search podczas openclaw onboard lub openclaw configure --section web, albo ustaw:
{
  tools: {
    web: {
      search: {
        provider: "ollama",
      },
    },
  },
}
Pełne informacje o konfiguracji i szczegółach działania znajdziesz w Ollama Web Search.

Konfiguracja zaawansowana

Wywoływanie narzędzi nie jest niezawodne w trybie zgodnym z OpenAI. Używaj tego trybu tylko wtedy, gdy potrzebujesz formatu OpenAI dla proxy i nie polegasz na natywnym zachowaniu wywoływania narzędzi.
Jeśli zamiast tego musisz użyć punktu końcowego zgodnego z OpenAI (na przykład za proxy, które obsługuje wyłącznie format OpenAI), ustaw jawnie api: "openai-completions":
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: true, // domyślnie: true
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
Ten tryb może nie obsługiwać jednocześnie streamingu i wywoływania narzędzi. Może być konieczne wyłączenie streamingu przez params: { streaming: false } w konfiguracji modelu.Gdy api: "openai-completions" jest używane z Ollama, OpenClaw domyślnie wstrzykuje options.num_ctx, aby Ollama nie wracało po cichu do okna kontekstu 4096. Jeśli twoje proxy/upstream odrzuca nieznane pola options, wyłącz to zachowanie:
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: false,
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
Dla modeli wykrywanych automatycznie OpenClaw używa okna kontekstu zgłaszanego przez Ollama, a gdy nie jest ono dostępne, wraca do domyślnego okna kontekstu Ollama używanego przez OpenClaw.Możesz nadpisać contextWindow i maxTokens w jawnej konfiguracji providera:
{
  models: {
    providers: {
      ollama: {
        models: [
          {
            id: "llama3.3",
            contextWindow: 131072,
            maxTokens: 65536,
          }
        ]
      }
    }
  }
}
OpenClaw domyślnie traktuje modele o nazwach takich jak deepseek-r1, reasoning lub think jako obsługujące reasoning.
ollama pull deepseek-r1:32b
Nie jest potrzebna żadna dodatkowa konfiguracja — OpenClaw oznacza je automatycznie.
Ollama jest darmowe i działa lokalnie, więc wszystkie koszty modeli są ustawione na $0. Dotyczy to zarówno modeli wykrywanych automatycznie, jak i definiowanych ręcznie.
Wbudowany Plugin Ollama rejestruje providera osadzań pamięci dla wyszukiwania w pamięci. Używa on skonfigurowanego bazowego URL-a Ollama i klucza API.
WłaściwośćWartość
Model domyślnynomic-embed-text
Auto-pullTak — model osadzań jest pobierany automatycznie, jeśli nie jest dostępny lokalnie
Aby wybrać Ollama jako providera osadzań dla wyszukiwania w pamięci:
{
  agents: {
    defaults: {
      memorySearch: { provider: "ollama" },
    },
  },
}
Integracja Ollama w OpenClaw domyślnie używa natywnego API Ollama (/api/chat), które w pełni obsługuje jednocześnie streaming i wywoływanie narzędzi. Nie jest wymagana żadna specjalna konfiguracja.
Jeśli musisz użyć punktu końcowego zgodnego z OpenAI, zobacz sekcję „Starszy tryb zgodny z OpenAI” powyżej. W tym trybie streaming i wywoływanie narzędzi mogą nie działać jednocześnie.

Rozwiązywanie problemów

Upewnij się, że Ollama działa, że ustawiono OLLAMA_API_KEY (lub profil auth) oraz że nie zdefiniowano jawnego wpisu models.providers.ollama:
ollama serve
Sprawdź, czy API jest dostępne:
curl http://localhost:11434/api/tags
Jeśli Twojego modelu nie ma na liście, pobierz go lokalnie albo zdefiniuj jawnie w models.providers.ollama.
ollama list  # Zobacz, co jest zainstalowane
ollama pull gemma4
ollama pull gpt-oss:20b
ollama pull llama3.3     # Lub inny model
Sprawdź, czy Ollama działa na poprawnym porcie:
# Sprawdź, czy Ollama działa
ps aux | grep ollama

# Lub uruchom Ollama ponownie
ollama serve
Więcej pomocy: Rozwiązywanie problemów i FAQ.

Powiązane

Providerzy modeli

Przegląd wszystkich providerów, odwołań do modeli i mechanizmu failover.

Wybór modelu

Jak wybierać i konfigurować modele.

Ollama Web Search

Pełne informacje o konfiguracji i działaniu wyszukiwania w sieci opartego na Ollama.

Konfiguracja

Pełna referencja konfiguracji.