Ollama
Ollama ist eine lokale LLM-Laufzeitumgebung, mit der sich Open-Source-Modelle einfach auf Ihrem Rechner ausführen lassen. OpenClaw integriert sich mit der nativen API von Ollama (/api/chat), unterstützt Streaming und Tool Calling und kann lokale Ollama-Modelle automatisch erkennen, wenn Sie sich mit OLLAMA_API_KEY (oder einem Auth-Profil) dafür entscheiden und keinen expliziten Eintrag models.providers.ollama definieren.
Remote-Ollama-Benutzer: Verwenden Sie nicht die OpenAI-kompatible URL /v1 (http://host:11434/v1) mit OpenClaw. Dadurch wird Tool Calling unterbrochen und Modelle können rohes Tool-JSON als Klartext ausgeben. Verwenden Sie stattdessen die native Ollama-API-URL: baseUrl: "http://host:11434" (ohne /v1).
Schnellstart
Onboarding (empfohlen)
Der schnellste Weg, Ollama einzurichten, ist über das Onboarding:
Wählen Sie Ollama aus der Provider-Liste. Das Onboarding wird:
- nach der Ollama-Basis-URL fragen, unter der Ihre Instanz erreichbar ist (Standard:
http://127.0.0.1:11434).
- Ihnen die Wahl zwischen Cloud + Local (Cloud-Modelle und lokale Modelle) oder Local (nur lokale Modelle) geben.
- einen Browser-Anmeldefluss öffnen, wenn Sie Cloud + Local wählen und nicht bei ollama.com angemeldet sind.
- verfügbare Modelle erkennen und Standardwerte vorschlagen.
- das ausgewählte Modell automatisch pullen, wenn es lokal nicht verfügbar ist.
Der nicht interaktive Modus wird ebenfalls unterstützt:
openclaw onboard --non-interactive \
--auth-choice ollama \
--accept-risk
Optional können Sie eine benutzerdefinierte Basis-URL oder ein Modell angeben:
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://ollama-host:11434" \
--custom-model-id "qwen3.5:27b" \
--accept-risk
Manuelle Einrichtung
-
Installieren Sie Ollama: https://ollama.com/download
-
Pullen Sie ein lokales Modell, wenn Sie lokale Inferenz verwenden möchten:
ollama pull gemma4
# oder
ollama pull gpt-oss:20b
# oder
ollama pull llama3.3
- Wenn Sie auch Cloud-Modelle möchten, melden Sie sich an:
- Führen Sie das Onboarding aus und wählen Sie
Ollama:
Local: nur lokale Modelle
Cloud + Local: lokale Modelle plus Cloud-Modelle
- Cloud-Modelle wie
kimi-k2.5:cloud, minimax-m2.7:cloud und glm-5.1:cloud erfordern kein lokales ollama pull
OpenClaw schlägt derzeit vor:
- lokaler Standard:
gemma4
- Cloud-Standards:
kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud
- Wenn Sie die manuelle Einrichtung bevorzugen, aktivieren Sie Ollama direkt für OpenClaw (jeder Wert funktioniert; Ollama erfordert keinen echten Schlüssel):
# Umgebungsvariable setzen
export OLLAMA_API_KEY="ollama-local"
# Oder in Ihrer Konfigurationsdatei konfigurieren
openclaw config set models.providers.ollama.apiKey "ollama-local"
- Modelle prüfen oder wechseln:
openclaw models list
openclaw models set ollama/gemma4
- Oder den Standardwert in der Konfiguration setzen:
{
agents: {
defaults: {
model: { primary: "ollama/gemma4" },
},
},
}
Modellerkennung (impliziter Provider)
Wenn Sie OLLAMA_API_KEY (oder ein Auth-Profil) setzen und keinen models.providers.ollama definieren, erkennt OpenClaw Modelle von der lokalen Ollama-Instanz unter http://127.0.0.1:11434:
- Fragt
/api/tags ab
- Verwendet best-effort-
/api/show-Abfragen, um contextWindow zu lesen und Fähigkeiten (einschließlich Vision) zu erkennen, wenn verfügbar
- Modelle mit einer durch
/api/show gemeldeten Fähigkeit vision werden als bildfähig markiert (input: ["text", "image"]), sodass OpenClaw Bilder für diese Modelle automatisch in den Prompt einfügt
- Markiert
reasoning mit einer Modellnamen-Heuristik (r1, reasoning, think)
- Setzt
maxTokens auf das von OpenClaw verwendete Standard-Max-Token-Limit für Ollama
- Setzt alle Kosten auf
0
Dadurch vermeiden Sie manuelle Modelleinträge und halten den Katalog gleichzeitig an die lokale Ollama-Instanz angepasst.
Um zu sehen, welche Modelle verfügbar sind:
ollama list
openclaw models list
Um ein neues Modell hinzuzufügen, pullen Sie es einfach mit Ollama:
Das neue Modell wird automatisch erkannt und ist zur Verwendung verfügbar.
Wenn Sie models.providers.ollama explizit setzen, wird die automatische Erkennung übersprungen und Sie müssen Modelle manuell definieren (siehe unten).
Konfiguration
Grundlegende Einrichtung (implizite Erkennung)
Der einfachste Weg, Ollama zu aktivieren, ist über eine Umgebungsvariable:
export OLLAMA_API_KEY="ollama-local"
Explizite Einrichtung (manuelle Modelle)
Verwenden Sie eine explizite Konfiguration, wenn:
- Ollama auf einem anderen Host/Port läuft.
- Sie bestimmte Kontextfenster oder Modelllisten erzwingen möchten.
- Sie vollständig manuelle Modelldefinitionen möchten.
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
Wenn OLLAMA_API_KEY gesetzt ist, können Sie apiKey im Provider-Eintrag weglassen und OpenClaw füllt ihn für Verfügbarkeitsprüfungen aus.
Benutzerdefinierte Basis-URL (explizite Konfiguration)
Wenn Ollama auf einem anderen Host oder Port läuft (explizite Konfiguration deaktiviert die automatische Erkennung, daher Modelle manuell definieren):
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // Kein /v1 - native Ollama-API-URL verwenden
api: "ollama", // Explizit setzen, um natives Tool-Calling-Verhalten sicherzustellen
},
},
},
}
Fügen Sie der URL kein /v1 hinzu. Der Pfad /v1 verwendet den OpenAI-kompatiblen Modus, in dem Tool Calling nicht zuverlässig ist. Verwenden Sie die Basis-Ollama-URL ohne Pfadsuffix.
Modellauswahl
Sobald alles konfiguriert ist, sind alle Ihre Ollama-Modelle verfügbar:
{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}
Cloud-Modelle
Mit Cloud-Modellen können Sie Cloud-gehostete Modelle (zum Beispiel kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud) neben Ihren lokalen Modellen ausführen.
Um Cloud-Modelle zu verwenden, wählen Sie während der Einrichtung den Modus Cloud + Local. Der Assistent prüft, ob Sie angemeldet sind, und öffnet bei Bedarf einen Browser-Anmeldefluss. Wenn die Authentifizierung nicht verifiziert werden kann, greift der Assistent auf Standardwerte für lokale Modelle zurück.
Sie können sich auch direkt unter ollama.com/signin anmelden.
Ollama Web Search
OpenClaw unterstützt außerdem Ollama Web Search als gebündelten Provider für
web_search.
- Es verwendet Ihren konfigurierten Ollama-Host (
models.providers.ollama.baseUrl, wenn
gesetzt, andernfalls http://127.0.0.1:11434).
- Es benötigt keinen Schlüssel.
- Es erfordert, dass Ollama läuft und Sie mit
ollama signin angemeldet sind.
Wählen Sie Ollama Web Search während openclaw onboard oder
openclaw configure --section web, oder setzen Sie:
{
tools: {
web: {
search: {
provider: "ollama",
},
},
},
}
Die vollständigen Details zu Einrichtung und Verhalten finden Sie unter Ollama Web Search.
Erweitert
Reasoning-Modelle
OpenClaw behandelt Modelle mit Namen wie deepseek-r1, reasoning oder think standardmäßig als reasoning-fähig:
ollama pull deepseek-r1:32b
Modellkosten
Ollama ist kostenlos und läuft lokal, daher sind alle Modellkosten auf $0 gesetzt.
Streaming-Konfiguration
Die Ollama-Integration von OpenClaw verwendet standardmäßig die native Ollama-API (/api/chat), die Streaming und Tool Calling gleichzeitig vollständig unterstützt. Es ist keine besondere Konfiguration erforderlich.
Veralteter OpenAI-kompatibler Modus
Tool Calling ist im OpenAI-kompatiblen Modus nicht zuverlässig. Verwenden Sie diesen Modus nur, wenn Sie ein OpenAI-Format für einen Proxy benötigen und nicht von nativem Tool-Calling-Verhalten abhängig sind.
Wenn Sie stattdessen den OpenAI-kompatiblen Endpunkt verwenden müssen (z. B. hinter einem Proxy, der nur OpenAI-Format unterstützt), setzen Sie api: "openai-completions" explizit:
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // Standard: true
apiKey: "ollama-local",
models: [...]
}
}
}
}
Dieser Modus unterstützt Streaming und Tool Calling möglicherweise nicht gleichzeitig. Eventuell müssen Sie Streaming mit params: { streaming: false } in der Modellkonfiguration deaktivieren.
Wenn api: "openai-completions" mit Ollama verwendet wird, fügt OpenClaw standardmäßig options.num_ctx ein, damit Ollama nicht stillschweigend auf ein Kontextfenster von 4096 zurückfällt. Wenn Ihr Proxy/Upstream unbekannte options-Felder ablehnt, deaktivieren Sie dieses Verhalten:
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}
Kontextfenster
Für automatisch erkannte Modelle verwendet OpenClaw das von Ollama gemeldete Kontextfenster, wenn verfügbar, andernfalls fällt es auf das von OpenClaw verwendete Standard-Kontextfenster für Ollama zurück. Sie können contextWindow und maxTokens in der expliziten Provider-Konfiguration überschreiben.
Fehlerbehebung
Ollama wird nicht erkannt
Stellen Sie sicher, dass Ollama läuft, dass Sie OLLAMA_API_KEY (oder ein Auth-Profil) gesetzt haben und dass Sie keinen expliziten Eintrag models.providers.ollama definiert haben:
Und dass die API erreichbar ist:
curl http://localhost:11434/api/tags
Keine Modelle verfügbar
Wenn Ihr Modell nicht aufgeführt wird, dann entweder:
- pullen Sie das Modell lokal, oder
- definieren Sie das Modell explizit in
models.providers.ollama.
Um Modelle hinzuzufügen:
ollama list # Anzeigen, was installiert ist
ollama pull gemma4
ollama pull gpt-oss:20b
ollama pull llama3.3 # Oder ein anderes Modell
Verbindung abgelehnt
Prüfen Sie, ob Ollama auf dem richtigen Port läuft:
# Prüfen, ob Ollama läuft
ps aux | grep ollama
# Oder Ollama neu starten
ollama serve
Siehe auch