Ollama
Ollama est un runtime LLM local qui facilite l’exécution de modèles open source sur votre machine. OpenClaw s’intègre à l’API native d’Ollama (/api/chat), prend en charge le streaming et l’appel d’outils, et peut découvrir automatiquement les modèles Ollama locaux lorsque vous activez OLLAMA_API_KEY (ou un profil d’authentification) et ne définissez pas explicitement d’entrée models.providers.ollama.
Utilisateurs d’Ollama à distance : n’utilisez pas l’URL compatible OpenAI /v1 (http://host:11434/v1) avec OpenClaw. Cela casse l’appel d’outils et les modèles peuvent produire du JSON d’outil brut comme simple texte. Utilisez à la place l’URL native de l’API Ollama : baseUrl: "http://host:11434" (sans /v1).
Démarrage rapide
Onboarding (recommandé)
Le moyen le plus rapide de configurer Ollama est de passer par l’onboarding :
Sélectionnez Ollama dans la liste des fournisseurs. L’onboarding va :
- Demander l’URL de base Ollama où votre instance est joignable (par défaut
http://127.0.0.1:11434).
- Vous permettre de choisir Cloud + Local (modèles cloud et modèles locaux) ou Local (modèles locaux uniquement).
- Ouvrir un flux de connexion dans le navigateur si vous choisissez Cloud + Local et que vous n’êtes pas connecté à ollama.com.
- Découvrir les modèles disponibles et suggérer des valeurs par défaut.
- Télécharger automatiquement le modèle sélectionné s’il n’est pas disponible localement.
Le mode non interactif est aussi pris en charge :
openclaw onboard --non-interactive \
--auth-choice ollama \
--accept-risk
Vous pouvez en option spécifier une URL de base ou un modèle personnalisés :
openclaw onboard --non-interactive \
--auth-choice ollama \
--custom-base-url "http://ollama-host:11434" \
--custom-model-id "qwen3.5:27b" \
--accept-risk
Configuration manuelle
-
Installez Ollama : https://ollama.com/download
-
Téléchargez un modèle local si vous voulez une inférence locale :
ollama pull glm-4.7-flash
# or
ollama pull gpt-oss:20b
# or
ollama pull llama3.3
- Si vous voulez aussi des modèles cloud, connectez-vous :
- Lancez l’onboarding et choisissez
Ollama :
Local : modèles locaux uniquement
Cloud + Local : modèles locaux plus modèles cloud
- Les modèles cloud tels que
kimi-k2.5:cloud, minimax-m2.5:cloud et glm-5:cloud ne nécessitent pas de ollama pull local
OpenClaw suggère actuellement :
- valeur par défaut locale :
glm-4.7-flash
- valeurs par défaut cloud :
kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud
- Si vous préférez une configuration manuelle, activez directement Ollama pour OpenClaw (n’importe quelle valeur convient ; Ollama n’exige pas de vraie clé) :
# Set environment variable
export OLLAMA_API_KEY="ollama-local"
# Or configure in your config file
openclaw config set models.providers.ollama.apiKey "ollama-local"
- Inspectez ou changez de modèle :
openclaw models list
openclaw models set ollama/glm-4.7-flash
- Ou définissez la valeur par défaut dans la configuration :
{
agents: {
defaults: {
model: { primary: "ollama/glm-4.7-flash" },
},
},
}
Découverte des modèles (fournisseur implicite)
Lorsque vous définissez OLLAMA_API_KEY (ou un profil d’authentification) et que vous ne définissez pas models.providers.ollama, OpenClaw découvre les modèles depuis l’instance Ollama locale sur http://127.0.0.1:11434 :
- Interroge
/api/tags
- Utilise des recherches
/api/show en best effort pour lire contextWindow lorsque disponible
- Marque
reasoning à l’aide d’une heuristique sur le nom du modèle (r1, reasoning, think)
- Définit
maxTokens sur le plafond de jetons Ollama par défaut utilisé par OpenClaw
- Définit tous les coûts à
0
Cela évite les entrées de modèle manuelles tout en gardant le catalogue aligné sur l’instance Ollama locale.
Pour voir quels modèles sont disponibles :
ollama list
openclaw models list
Pour ajouter un nouveau modèle, il suffit de le télécharger avec Ollama :
Le nouveau modèle sera automatiquement découvert et disponible à l’utilisation.
Si vous définissez explicitement models.providers.ollama, la découverte automatique est ignorée et vous devez définir les modèles manuellement (voir ci-dessous).
Configuration
Configuration de base (découverte implicite)
Le moyen le plus simple d’activer Ollama est via une variable d’environnement :
export OLLAMA_API_KEY="ollama-local"
Configuration explicite (modèles manuels)
Utilisez une configuration explicite lorsque :
- Ollama s’exécute sur un autre hôte/port.
- Vous voulez imposer des fenêtres de contexte ou des listes de modèles spécifiques.
- Vous voulez des définitions de modèles entièrement manuelles.
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434",
apiKey: "ollama-local",
api: "ollama",
models: [
{
id: "gpt-oss:20b",
name: "GPT-OSS 20B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 8192,
maxTokens: 8192 * 10
}
]
}
}
}
}
Si OLLAMA_API_KEY est défini, vous pouvez omettre apiKey dans l’entrée du fournisseur et OpenClaw le remplira pour les vérifications de disponibilité.
URL de base personnalisée (configuration explicite)
Si Ollama s’exécute sur un hôte ou un port différent (la configuration explicite désactive la découverte automatique, donc définissez les modèles manuellement) :
{
models: {
providers: {
ollama: {
apiKey: "ollama-local",
baseUrl: "http://ollama-host:11434", // No /v1 - use native Ollama API URL
api: "ollama", // Set explicitly to guarantee native tool-calling behavior
},
},
},
}
N’ajoutez pas /v1 à l’URL. Le chemin /v1 utilise le mode compatible OpenAI, où l’appel d’outils n’est pas fiable. Utilisez l’URL de base Ollama sans suffixe de chemin.
Sélection de modèle
Une fois configurés, tous vos modèles Ollama sont disponibles :
{
agents: {
defaults: {
model: {
primary: "ollama/gpt-oss:20b",
fallbacks: ["ollama/llama3.3", "ollama/qwen2.5-coder:32b"],
},
},
},
}
Modèles cloud
Les modèles cloud vous permettent d’exécuter des modèles hébergés dans le cloud (par exemple kimi-k2.5:cloud, minimax-m2.5:cloud, glm-5:cloud) en parallèle de vos modèles locaux.
Pour utiliser les modèles cloud, sélectionnez le mode Cloud + Local pendant la configuration. L’assistant vérifie si vous êtes connecté et ouvre un flux de connexion dans le navigateur si nécessaire. Si l’authentification ne peut pas être vérifiée, l’assistant se replie sur les valeurs par défaut des modèles locaux.
Vous pouvez aussi vous connecter directement sur ollama.com/signin.
Ollama Web Search
OpenClaw prend aussi en charge Ollama Web Search comme fournisseur web_search
intégré.
- Il utilise votre hôte Ollama configuré (
models.providers.ollama.baseUrl lorsqu’il
est défini, sinon http://127.0.0.1:11434).
- Il ne nécessite pas de clé.
- Il exige qu’Ollama soit en cours d’exécution et connecté avec
ollama signin.
Choisissez Ollama Web Search pendant openclaw onboard ou
openclaw configure --section web, ou définissez :
{
tools: {
web: {
search: {
provider: "ollama",
},
},
},
}
Pour tous les détails de configuration et de comportement, voir Ollama Web Search.
Avancé
Modèles de raisonnement
OpenClaw traite par défaut comme capables de raisonnement les modèles dont le nom contient deepseek-r1, reasoning ou think :
ollama pull deepseek-r1:32b
Coûts des modèles
Ollama est gratuit et s’exécute localement, donc tous les coûts de modèle sont définis à 0 $.
Configuration du streaming
L’intégration Ollama d’OpenClaw utilise par défaut l’API native Ollama (/api/chat), qui prend entièrement en charge simultanément le streaming et l’appel d’outils. Aucune configuration spéciale n’est nécessaire.
Mode hérité compatible OpenAI
L’appel d’outils n’est pas fiable en mode compatible OpenAI. Utilisez ce mode uniquement si vous avez besoin du format OpenAI pour un proxy et ne dépendez pas du comportement natif d’appel d’outils.
Si vous devez utiliser à la place le point de terminaison compatible OpenAI (par exemple derrière un proxy qui ne prend en charge que le format OpenAI), définissez explicitement api: "openai-completions" :
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: true, // default: true
apiKey: "ollama-local",
models: [...]
}
}
}
}
Ce mode peut ne pas prendre en charge simultanément le streaming + l’appel d’outils. Vous devrez peut-être désactiver le streaming avec params: { streaming: false } dans la configuration du modèle.
Lorsque api: "openai-completions" est utilisé avec Ollama, OpenClaw injecte par défaut options.num_ctx afin qu’Ollama ne retombe pas silencieusement sur une fenêtre de contexte de 4096. Si votre proxy/amont rejette les champs options inconnus, désactivez ce comportement :
{
models: {
providers: {
ollama: {
baseUrl: "http://ollama-host:11434/v1",
api: "openai-completions",
injectNumCtxForOpenAICompat: false,
apiKey: "ollama-local",
models: [...]
}
}
}
}
Fenêtres de contexte
Pour les modèles découverts automatiquement, OpenClaw utilise la fenêtre de contexte signalée par Ollama lorsqu’elle est disponible, sinon il se replie sur la fenêtre de contexte Ollama par défaut utilisée par OpenClaw. Vous pouvez surcharger contextWindow et maxTokens dans la configuration explicite du fournisseur.
Dépannage
Ollama non détecté
Assurez-vous qu’Ollama est en cours d’exécution et que vous avez défini OLLAMA_API_KEY (ou un profil d’authentification), et que vous n’avez pas défini d’entrée explicite models.providers.ollama :
Et que l’API est accessible :
curl http://localhost:11434/api/tags
Aucun modèle disponible
Si votre modèle n’apparaît pas dans la liste, soit :
- téléchargez le modèle localement, soit
- définissez explicitement le modèle dans
models.providers.ollama.
Pour ajouter des modèles :
ollama list # See what's installed
ollama pull glm-4.7-flash
ollama pull gpt-oss:20b
ollama pull llama3.3 # Or another model
Connexion refusée
Vérifiez qu’Ollama s’exécute sur le bon port :
# Check if Ollama is running
ps aux | grep ollama
# Or restart Ollama
ollama serve
Voir aussi