Ollama
OpenClaw integruje się z natywnym API Ollama (/api/chat) dla hostowanych modeli chmurowych oraz lokalnych/samodzielnie hostowanych serwerów Ollama. Możesz używać Ollama w trzech trybach: Cloud + Local przez dostępny host Ollama, Cloud only względem https://ollama.com albo Local only względem dostępnego hosta Ollama.
Pierwsze kroki
Wybierz preferowaną metodę konfiguracji i tryb.- Onboarding (zalecane)
- Konfiguracja ręczna
Najlepsze dla: najszybszej drogi do działającej konfiguracji Ollama w chmurze lub lokalnie.Opcjonalnie podaj niestandardowy bazowy URL lub model:
Wybierz tryb
- Cloud + Local — lokalny host Ollama plus modele chmurowe kierowane przez tego hosta
- Cloud only — hostowane modele Ollama przez
https://ollama.com - Local only — tylko modele lokalne
Wybierz model
Cloud only prosi o OLLAMA_API_KEY i sugeruje domyślne modele chmurowe hostowane. Cloud + Local oraz Local only proszą o bazowy URL Ollama, wykrywają dostępne modele i automatycznie pobierają wybrany model lokalny, jeśli nie jest jeszcze dostępny. Cloud + Local sprawdza też, czy ten host Ollama jest zalogowany do dostępu chmurowego.Tryb nieinteraktywny
Modele chmurowe
- Cloud + Local
- Cloud only
- Local only
Cloud + Local używa dostępnego hosta Ollama jako punktu sterowania zarówno dla modeli lokalnych, jak i chmurowych. To preferowany przez Ollama hybrydowy przepływ pracy.Podczas konfiguracji użyj Cloud + Local. OpenClaw poprosi o bazowy URL Ollama, wykryje modele lokalne z tego hosta i sprawdzi, czy host jest zalogowany do dostępu chmurowego przez ollama signin. Gdy host jest zalogowany, OpenClaw sugeruje też domyślne hostowane modele chmurowe, takie jak kimi-k2.5:cloud, minimax-m2.7:cloud i glm-5.1:cloud.Jeśli host nie jest jeszcze zalogowany, OpenClaw utrzyma konfigurację tylko lokalną, dopóki nie uruchomisz ollama signin.Wykrywanie modeli (provider niejawny)
Gdy ustawiszOLLAMA_API_KEY (lub profil auth) i nie zdefiniujesz models.providers.ollama, OpenClaw wykryje modele z lokalnej instancji Ollama pod adresem http://127.0.0.1:11434.
| Zachowanie | Szczegóły |
|---|---|
| Zapytanie katalogu | Odpytuje /api/tags |
| Wykrywanie możliwości | Używa wyszukiwań /api/show typu best-effort do odczytu contextWindow i wykrywania możliwości (w tym vision) |
| Modele vision | Modele z możliwością vision zgłaszaną przez /api/show są oznaczane jako obsługujące obrazy (input: ["text", "image"]), więc OpenClaw automatycznie wstrzykuje obrazy do promptu |
| Wykrywanie reasoning | Oznacza reasoning za pomocą heurystyki nazwy modelu (r1, reasoning, think) |
| Limity tokenów | Ustawia maxTokens na domyślny limit maksymalnej liczby tokenów Ollama używany przez OpenClaw |
| Koszty | Ustawia wszystkie koszty na 0 |
Jeśli jawnie ustawisz
models.providers.ollama, automatyczne wykrywanie zostanie pominięte i modele trzeba będzie zdefiniować ręcznie. Zobacz sekcję jawnej konfiguracji poniżej.Konfiguracja
- Podstawowa (niejawne wykrywanie)
- Jawna (modele ręczne)
- Niestandardowy bazowy URL
Najprostsza ścieżka włączenia trybu tylko lokalnego to zmienna środowiskowa:
Wybór modelu
Po skonfigurowaniu wszystkie modele Ollama są dostępne:Ollama Web Search
OpenClaw obsługuje Ollama Web Search jako wbudowanego provideraweb_search.
| Właściwość | Szczegóły |
|---|---|
| Host | Używa skonfigurowanego hosta Ollama (models.providers.ollama.baseUrl, jeśli ustawione, w przeciwnym razie http://127.0.0.1:11434) |
| Auth | Bez klucza |
| Wymaganie | Ollama musi działać i być zalogowane przez ollama signin |
openclaw onboard lub openclaw configure --section web, albo ustaw:
Pełne informacje o konfiguracji i szczegółach działania znajdziesz w Ollama Web Search.
Konfiguracja zaawansowana
Starszy tryb zgodny z OpenAI
Starszy tryb zgodny z OpenAI
Jeśli zamiast tego musisz użyć punktu końcowego zgodnego z OpenAI (na przykład za proxy, które obsługuje wyłącznie format OpenAI), ustaw jawnie Ten tryb może nie obsługiwać jednocześnie streamingu i wywoływania narzędzi. Może być konieczne wyłączenie streamingu przez
api: "openai-completions":params: { streaming: false } w konfiguracji modelu.Gdy api: "openai-completions" jest używane z Ollama, OpenClaw domyślnie wstrzykuje options.num_ctx, aby Ollama nie wracało po cichu do okna kontekstu 4096. Jeśli twoje proxy/upstream odrzuca nieznane pola options, wyłącz to zachowanie:Okna kontekstu
Okna kontekstu
Dla modeli wykrywanych automatycznie OpenClaw używa okna kontekstu zgłaszanego przez Ollama, a gdy nie jest ono dostępne, wraca do domyślnego okna kontekstu Ollama używanego przez OpenClaw.Możesz nadpisać
contextWindow i maxTokens w jawnej konfiguracji providera:Modele reasoning
Modele reasoning
OpenClaw domyślnie traktuje modele o nazwach takich jak Nie jest potrzebna żadna dodatkowa konfiguracja — OpenClaw oznacza je automatycznie.
deepseek-r1, reasoning lub think jako obsługujące reasoning.Koszty modeli
Koszty modeli
Ollama jest darmowe i działa lokalnie, więc wszystkie koszty modeli są ustawione na $0. Dotyczy to zarówno modeli wykrywanych automatycznie, jak i definiowanych ręcznie.
Osadzania pamięci
Osadzania pamięci
Wbudowany Plugin Ollama rejestruje providera osadzań pamięci dla
wyszukiwania w pamięci. Używa on skonfigurowanego bazowego URL-a Ollama
i klucza API.
Aby wybrać Ollama jako providera osadzań dla wyszukiwania w pamięci:
| Właściwość | Wartość |
|---|---|
| Model domyślny | nomic-embed-text |
| Auto-pull | Tak — model osadzań jest pobierany automatycznie, jeśli nie jest dostępny lokalnie |
Konfiguracja streamingu
Konfiguracja streamingu
Integracja Ollama w OpenClaw domyślnie używa natywnego API Ollama (
/api/chat), które w pełni obsługuje jednocześnie streaming i wywoływanie narzędzi. Nie jest wymagana żadna specjalna konfiguracja.Rozwiązywanie problemów
Nie wykryto Ollama
Nie wykryto Ollama
Upewnij się, że Ollama działa, że ustawiono Sprawdź, czy API jest dostępne:
OLLAMA_API_KEY (lub profil auth) oraz że nie zdefiniowano jawnego wpisu models.providers.ollama:Brak dostępnych modeli
Brak dostępnych modeli
Jeśli Twojego modelu nie ma na liście, pobierz go lokalnie albo zdefiniuj jawnie w
models.providers.ollama.Odmowa połączenia
Odmowa połączenia
Sprawdź, czy Ollama działa na poprawnym porcie:
Więcej pomocy: Rozwiązywanie problemów i FAQ.
Powiązane
Providerzy modeli
Przegląd wszystkich providerów, odwołań do modeli i mechanizmu failover.
Wybór modelu
Jak wybierać i konfigurować modele.
Ollama Web Search
Pełne informacje o konfiguracji i działaniu wyszukiwania w sieci opartego na Ollama.
Konfiguracja
Pełna referencja konfiguracji.