Zum Hauptinhalt springen

Ollama

Ollama ist eine lokale LLM-Laufzeitumgebung, mit der sich Open-Source-Modelle einfach auf Ihrem Rechner ausführen lassen. OpenClaw integriert sich mit der nativen API von Ollama (/api/chat), unterstützt Streaming und Tool Calling und kann lokale Ollama-Modelle automatisch erkennen, wenn Sie sich mit OLLAMA_API_KEY (oder einem Auth-Profil) dafür entscheiden und keinen expliziten Eintrag models.providers.ollama definieren.
Remote-Ollama-Benutzer: Verwenden Sie nicht die OpenAI-kompatible URL /v1 (http://host:11434/v1) mit OpenClaw. Dadurch wird Tool Calling unterbrochen und Modelle können rohes Tool-JSON als Klartext ausgeben. Verwenden Sie stattdessen die native Ollama-API-URL: baseUrl: "http://host:11434" (ohne /v1).

Schnellstart

Onboarding (empfohlen)

Der schnellste Weg, Ollama einzurichten, ist über das Onboarding:
openclaw onboard
Wählen Sie Ollama aus der Provider-Liste. Das Onboarding wird:
  1. nach der Ollama-Basis-URL fragen, unter der Ihre Instanz erreichbar ist (Standard: http://127.0.0.1:11434).
  2. Ihnen die Wahl zwischen Cloud + Local (Cloud-Modelle und lokale Modelle) oder Local (nur lokale Modelle) geben.
  3. einen Browser-Anmeldefluss öffnen, wenn Sie Cloud + Local wählen und nicht bei ollama.com angemeldet sind.
  4. verfügbare Modelle erkennen und Standardwerte vorschlagen.
  5. das ausgewählte Modell automatisch pullen, wenn es lokal nicht verfügbar ist.
Der nicht interaktive Modus wird ebenfalls unterstützt:
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --accept-risk
Optional können Sie eine benutzerdefinierte Basis-URL oder ein Modell angeben:
openclaw onboard --non-interactive \
  --auth-choice ollama \
  --custom-base-url "http://ollama-host:11434" \
  --custom-model-id "qwen3.5:27b" \
  --accept-risk

Manuelle Einrichtung

  1. Installieren Sie Ollama: https://ollama.com/download
  2. Pullen Sie ein lokales Modell, wenn Sie lokale Inferenz verwenden möchten:
ollama pull gemma4
# oder
ollama pull gpt-oss:20b
# oder
ollama pull llama3.3
  1. Wenn Sie auch Cloud-Modelle möchten, melden Sie sich an:
ollama signin
  1. Führen Sie das Onboarding aus und wählen Sie Ollama:
openclaw onboard
  • Local: nur lokale Modelle
  • Cloud + Local: lokale Modelle plus Cloud-Modelle
  • Cloud-Modelle wie kimi-k2.5:cloud, minimax-m2.7:cloud und glm-5.1:cloud erfordern kein lokales ollama pull
OpenClaw schlägt derzeit vor:
  • lokaler Standard: gemma4
  • Cloud-Standards: kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud
  1. Wenn Sie die manuelle Einrichtung bevorzugen, aktivieren Sie Ollama direkt für OpenClaw (jeder Wert funktioniert; Ollama erfordert keinen echten Schlüssel):
# Umgebungsvariable setzen
export OLLAMA_API_KEY="ollama-local"

# Oder in Ihrer Konfigurationsdatei konfigurieren
openclaw config set models.providers.ollama.apiKey "ollama-local"
  1. Modelle prüfen oder wechseln:
openclaw models list
openclaw models set ollama/gemma4
  1. Oder den Standardwert in der Konfiguration setzen:
{
  agents: {
    defaults: {
      model: { primary: "ollama/gemma4" },
    },
  },
}

Modellerkennung (impliziter Provider)

Wenn Sie OLLAMA_API_KEY (oder ein Auth-Profil) setzen und keinen models.providers.ollama definieren, erkennt OpenClaw Modelle von der lokalen Ollama-Instanz unter http://127.0.0.1:11434:
  • Fragt /api/tags ab
  • Verwendet best-effort-/api/show-Abfragen, um contextWindow zu lesen und Fähigkeiten (einschließlich Vision) zu erkennen, wenn verfügbar
  • Modelle mit einer durch /api/show gemeldeten Fähigkeit vision werden als bildfähig markiert (input: ["text", "image"]), sodass OpenClaw Bilder für diese Modelle automatisch in den Prompt einfügt
  • Markiert reasoning mit einer Modellnamen-Heuristik (r1, reasoning, think)
  • Setzt maxTokens auf das von OpenClaw verwendete Standard-Max-Token-Limit für Ollama
  • Setzt alle Kosten auf 0
Dadurch vermeiden Sie manuelle Modelleinträge und halten den Katalog gleichzeitig an die lokale Ollama-Instanz angepasst. Um zu sehen, welche Modelle verfügbar sind:
ollama list
openclaw models list
Um ein neues Modell hinzuzufügen, pullen Sie es einfach mit Ollama:
ollama pull mistral
Das neue Modell wird automatisch erkannt und ist zur Verwendung verfügbar. Wenn Sie models.providers.ollama explizit setzen, wird die automatische Erkennung übersprungen und Sie müssen Modelle manuell definieren (siehe unten).

Konfiguration

Grundlegende Einrichtung (implizite Erkennung)

Der einfachste Weg, Ollama zu aktivieren, ist über eine Umgebungsvariable:
export OLLAMA_API_KEY="ollama-local"

Explizite Einrichtung (manuelle Modelle)

Verwenden Sie eine explizite Konfiguration, wenn:
  • Ollama auf einem anderen Host/Port läuft.
  • Sie bestimmte Kontextfenster oder Modelllisten erzwingen möchten.
  • Sie vollständig manuelle Modelldefinitionen möchten.
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434",
        apiKey: "ollama-local",
        api: "ollama",
        models: [
          {
            id: "gpt-oss:20b",
            name: "GPT-OSS 20B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 8192,
            maxTokens: 8192 * 10
          }
        ]
      }
    }
  }
}
Wenn OLLAMA_API_KEY gesetzt ist, können Sie apiKey im Provider-Eintrag weglassen und OpenClaw füllt ihn für Verfügbarkeitsprüfungen aus.

Benutzerdefinierte Basis-URL (explizite Konfiguration)

Wenn Ollama auf einem anderen Host oder Port läuft (explizite Konfiguration deaktiviert die automatische Erkennung, daher Modelle manuell definieren):
{
  models: {
    providers: {
      ollama: {
        apiKey: "ollama-local",
        baseUrl: "http://ollama-host:11434", // Kein /v1 - native Ollama-API-URL verwenden
        api: "ollama", // Explizit setzen, um natives Tool-Calling-Verhalten sicherzustellen
      },
    },
  },
}
Fügen Sie der URL kein /v1 hinzu. Der Pfad /v1 verwendet den OpenAI-kompatiblen Modus, in dem Tool Calling nicht zuverlässig ist. Verwenden Sie die Basis-Ollama-URL ohne Pfadsuffix.

Modellauswahl

Sobald alles konfiguriert ist, sind alle Ihre Ollama-Modelle verfügbar:
{
  agents: {
    defaults: {
      model: {
        primary: "ollama/gpt-oss:20b",
        fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
      },
    },
  },
}

Cloud-Modelle

Mit Cloud-Modellen können Sie Cloud-gehostete Modelle (zum Beispiel kimi-k2.5:cloud, minimax-m2.7:cloud, glm-5.1:cloud) neben Ihren lokalen Modellen ausführen. Um Cloud-Modelle zu verwenden, wählen Sie während der Einrichtung den Modus Cloud + Local. Der Assistent prüft, ob Sie angemeldet sind, und öffnet bei Bedarf einen Browser-Anmeldefluss. Wenn die Authentifizierung nicht verifiziert werden kann, greift der Assistent auf Standardwerte für lokale Modelle zurück. Sie können sich auch direkt unter ollama.com/signin anmelden. OpenClaw unterstützt außerdem Ollama Web Search als gebündelten Provider für web_search.
  • Es verwendet Ihren konfigurierten Ollama-Host (models.providers.ollama.baseUrl, wenn gesetzt, andernfalls http://127.0.0.1:11434).
  • Es benötigt keinen Schlüssel.
  • Es erfordert, dass Ollama läuft und Sie mit ollama signin angemeldet sind.
Wählen Sie Ollama Web Search während openclaw onboard oder openclaw configure --section web, oder setzen Sie:
{
  tools: {
    web: {
      search: {
        provider: "ollama",
      },
    },
  },
}
Die vollständigen Details zu Einrichtung und Verhalten finden Sie unter Ollama Web Search.

Erweitert

Reasoning-Modelle

OpenClaw behandelt Modelle mit Namen wie deepseek-r1, reasoning oder think standardmäßig als reasoning-fähig:
ollama pull deepseek-r1:32b

Modellkosten

Ollama ist kostenlos und läuft lokal, daher sind alle Modellkosten auf $0 gesetzt.

Streaming-Konfiguration

Die Ollama-Integration von OpenClaw verwendet standardmäßig die native Ollama-API (/api/chat), die Streaming und Tool Calling gleichzeitig vollständig unterstützt. Es ist keine besondere Konfiguration erforderlich.

Veralteter OpenAI-kompatibler Modus

Tool Calling ist im OpenAI-kompatiblen Modus nicht zuverlässig. Verwenden Sie diesen Modus nur, wenn Sie ein OpenAI-Format für einen Proxy benötigen und nicht von nativem Tool-Calling-Verhalten abhängig sind.
Wenn Sie stattdessen den OpenAI-kompatiblen Endpunkt verwenden müssen (z. B. hinter einem Proxy, der nur OpenAI-Format unterstützt), setzen Sie api: "openai-completions" explizit:
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: true, // Standard: true
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}
Dieser Modus unterstützt Streaming und Tool Calling möglicherweise nicht gleichzeitig. Eventuell müssen Sie Streaming mit params: { streaming: false } in der Modellkonfiguration deaktivieren. Wenn api: "openai-completions" mit Ollama verwendet wird, fügt OpenClaw standardmäßig options.num_ctx ein, damit Ollama nicht stillschweigend auf ein Kontextfenster von 4096 zurückfällt. Wenn Ihr Proxy/Upstream unbekannte options-Felder ablehnt, deaktivieren Sie dieses Verhalten:
{
  models: {
    providers: {
      ollama: {
        baseUrl: "http://ollama-host:11434/v1",
        api: "openai-completions",
        injectNumCtxForOpenAICompat: false,
        apiKey: "ollama-local",
        models: [...]
      }
    }
  }
}

Kontextfenster

Für automatisch erkannte Modelle verwendet OpenClaw das von Ollama gemeldete Kontextfenster, wenn verfügbar, andernfalls fällt es auf das von OpenClaw verwendete Standard-Kontextfenster für Ollama zurück. Sie können contextWindow und maxTokens in der expliziten Provider-Konfiguration überschreiben.

Fehlerbehebung

Ollama wird nicht erkannt

Stellen Sie sicher, dass Ollama läuft, dass Sie OLLAMA_API_KEY (oder ein Auth-Profil) gesetzt haben und dass Sie keinen expliziten Eintrag models.providers.ollama definiert haben:
ollama serve
Und dass die API erreichbar ist:
curl http://localhost:11434/api/tags

Keine Modelle verfügbar

Wenn Ihr Modell nicht aufgeführt wird, dann entweder:
  • pullen Sie das Modell lokal, oder
  • definieren Sie das Modell explizit in models.providers.ollama.
Um Modelle hinzuzufügen:
ollama list  # Anzeigen, was installiert ist
ollama pull gemma4
ollama pull gpt-oss:20b
ollama pull llama3.3     # Oder ein anderes Modell

Verbindung abgelehnt

Prüfen Sie, ob Ollama auf dem richtigen Port läuft:
# Prüfen, ob Ollama läuft
ps aux | grep ollama

# Oder Ollama neu starten
ollama serve

Siehe auch