Ollama
OpenClaw si integra con l’API nativa di Ollama (/api/chat) per modelli cloud ospitati e server Ollama locali/self-hosted. Puoi usare Ollama in tre modalità: Cloud + Local tramite un host Ollama raggiungibile, Cloud only contro https://ollama.com, oppure Local only contro un host Ollama raggiungibile.
Per iniziare
Scegli il metodo e la modalità di configurazione che preferisci.- Onboarding (consigliato)
- Configurazione manuale
Ideale per: il percorso più rapido verso una configurazione funzionante di Ollama cloud o locale.Facoltativamente, specifica un URL base o un modello personalizzato:
Scegli la modalità
- Cloud + Local — host Ollama locale più modelli cloud instradati tramite quell’host
- Cloud only — modelli Ollama ospitati tramite
https://ollama.com - Local only — solo modelli locali
Seleziona un modello
Cloud only richiede OLLAMA_API_KEY e suggerisce valori predefiniti cloud ospitati. Cloud + Local e Local only richiedono un URL base di Ollama, individuano i modelli disponibili ed eseguono automaticamente il pull del modello locale selezionato se non è ancora disponibile. Cloud + Local controlla anche se quell’host Ollama ha effettuato l’accesso per l’accesso cloud.Modalità non interattiva
Modelli cloud
- Cloud + Local
- Cloud only
- Local only
Cloud + Local usa un host Ollama raggiungibile come punto di controllo sia per i modelli locali sia per quelli cloud. Questo è il flusso ibrido preferito da Ollama.Usa Cloud + Local durante la configurazione. OpenClaw richiede l’URL base di Ollama, individua i modelli locali da quell’host e controlla se l’host ha effettuato l’accesso per l’accesso cloud con ollama signin. Quando l’host ha effettuato l’accesso, OpenClaw suggerisce anche valori predefiniti cloud ospitati come kimi-k2.5:cloud, minimax-m2.7:cloud e glm-5.1:cloud.Se l’host non ha ancora effettuato l’accesso, OpenClaw mantiene la configurazione in modalità solo locale finché non esegui ollama signin.Individuazione dei modelli (provider implicito)
Quando impostiOLLAMA_API_KEY (o un profilo di autenticazione) e non definisci models.providers.ollama, OpenClaw individua i modelli dall’istanza Ollama locale su http://127.0.0.1:11434.
| Comportamento | Dettaglio |
|---|---|
| Query del catalogo | Interroga /api/tags |
| Rilevamento delle capacità | Usa richieste /api/show best-effort per leggere contextWindow e rilevare le capacità (inclusa la visione) |
| Modelli vision | I modelli con capacità vision riportata da /api/show vengono contrassegnati come capaci di elaborare immagini (input: ["text", "image"]), quindi OpenClaw inserisce automaticamente le immagini nel prompt |
| Rilevamento del reasoning | Contrassegna reasoning con un’euristica basata sul nome del modello (r1, reasoning, think) |
| Limiti di token | Imposta maxTokens al limite massimo di token predefinito di Ollama usato da OpenClaw |
| Costi | Imposta tutti i costi a 0 |
Se imposti
models.providers.ollama esplicitamente, l’individuazione automatica viene saltata e devi definire i modelli manualmente. Vedi la sezione sulla configurazione esplicita qui sotto.Configurazione
- Base (individuazione implicita)
- Esplicita (modelli manuali)
- URL base personalizzato
Il percorso di abilitazione solo locale più semplice avviene tramite variabile d’ambiente:
Selezione del modello
Una volta configurato, tutti i tuoi modelli Ollama sono disponibili:Ollama Web Search
OpenClaw supporta Ollama Web Search come providerweb_search incluso.
| Proprietà | Dettaglio |
|---|---|
| Host | Usa il tuo host Ollama configurato (models.providers.ollama.baseUrl quando impostato, altrimenti http://127.0.0.1:11434) |
| Autenticazione | Senza chiave |
| Requisito | Ollama deve essere in esecuzione e avere effettuato l’accesso con ollama signin |
openclaw onboard o openclaw configure --section web, oppure imposta:
Per tutti i dettagli su configurazione e comportamento, vedi Ollama Web Search.
Configurazione avanzata
Modalità legacy OpenAI-compatible
Modalità legacy OpenAI-compatible
Se invece devi usare l’endpoint OpenAI-compatible (ad esempio dietro un proxy che supporta solo il formato OpenAI), imposta Questa modalità potrebbe non supportare simultaneamente streaming e tool calling. Potrebbe essere necessario disabilitare lo streaming con
api: "openai-completions" esplicitamente:params: { streaming: false } nella configurazione del modello.Quando api: "openai-completions" viene usato con Ollama, OpenClaw inserisce options.num_ctx per impostazione predefinita così Ollama non torna silenziosamente a una finestra di contesto di 4096. Se il tuo proxy/upstream rifiuta campi options sconosciuti, disabilita questo comportamento:Finestre di contesto
Finestre di contesto
Per i modelli individuati automaticamente, OpenClaw usa la finestra di contesto riportata da Ollama quando disponibile, altrimenti usa come fallback la finestra di contesto predefinita di Ollama usata da OpenClaw.Puoi sovrascrivere
contextWindow e maxTokens nella configurazione esplicita del provider:Modelli di reasoning
Modelli di reasoning
OpenClaw considera per impostazione predefinita come capaci di reasoning i modelli con nomi come Non è necessaria alcuna configurazione aggiuntiva — OpenClaw li contrassegna automaticamente.
deepseek-r1, reasoning o think.Costi dei modelli
Costi dei modelli
Ollama è gratuito e viene eseguito localmente, quindi tutti i costi dei modelli sono impostati a $0. Questo vale sia per i modelli individuati automaticamente sia per quelli definiti manualmente.
Embedding della memoria
Embedding della memoria
Il Plugin Ollama incluso registra un provider di embedding della memoria per
la ricerca nella memoria. Usa l’URL base di Ollama
configurato e la chiave API.
Per selezionare Ollama come provider di embedding per la ricerca nella memoria:
| Proprietà | Valore |
|---|---|
| Modello predefinito | nomic-embed-text |
| Pull automatico | Sì — il modello di embedding viene scaricato automaticamente se non è presente in locale |
Configurazione dello streaming
Configurazione dello streaming
L’integrazione Ollama di OpenClaw usa per impostazione predefinita l’API nativa di Ollama (
/api/chat), che supporta pienamente streaming e tool calling simultaneamente. Non è necessaria alcuna configurazione speciale.Risoluzione dei problemi
Ollama non rilevato
Ollama non rilevato
Assicurati che Ollama sia in esecuzione, di aver impostato Verifica che l’API sia accessibile:
OLLAMA_API_KEY (o un profilo di autenticazione) e di non aver definito una voce esplicita models.providers.ollama:Nessun modello disponibile
Nessun modello disponibile
Se il tuo modello non è elencato, esegui il pull del modello in locale oppure definiscilo esplicitamente in
models.providers.ollama.Connessione rifiutata
Connessione rifiutata
Verifica che Ollama sia in esecuzione sulla porta corretta:
Ulteriore aiuto: Risoluzione dei problemi e FAQ.
Correlati
Provider di modelli
Panoramica di tutti i provider, dei riferimenti ai modelli e del comportamento di failover.
Selezione del modello
Come scegliere e configurare i modelli.
Ollama Web Search
Dettagli completi su configurazione e comportamento per la ricerca web basata su Ollama.
Configurazione
Riferimento completo della configurazione.