Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
models.providers.<id>.localService consente a OpenClaw di avviare su richiesta un server di modelli locale di proprietà del provider. È una configurazione a livello di provider: quando il modello selezionato appartiene a quel provider, OpenClaw verifica il servizio, avvia il processo se l’endpoint non è attivo, attende che sia pronto, quindi invia la richiesta del modello.
Usalo per server locali costosi da mantenere in esecuzione tutto il giorno, oppure per configurazioni manuali in cui la selezione del modello dovrebbe bastare per avviare il backend.
Come funziona
- Una richiesta di modello viene risolta in un provider configurato.
- Se quel provider ha
localService, OpenClaw verificahealthUrl. - Se la verifica riesce, OpenClaw usa il server esistente.
- Se la verifica fallisce, OpenClaw avvia
commandconargs. - OpenClaw controlla periodicamente la disponibilità finché
readyTimeoutMsnon scade. - La richiesta del modello viene inviata tramite il normale trasporto del provider.
- Se OpenClaw ha avviato il processo e
idleStopMsè positivo, il processo viene arrestato dopo che l’ultima richiesta in corso è rimasta inattiva per quel tempo.
Forma della configurazione
Campi
command: percorso assoluto dell’eseguibile. La ricerca tramite shell non viene usata.args: argomenti del processo. Non vengono applicati espansione della shell, pipe, globbing o regole di quoting.cwd: directory di lavoro facoltativa per il processo.env: variabili di ambiente facoltative unite all’ambiente del processo OpenClaw.healthUrl: URL di disponibilità. Se omesso, OpenClaw aggiunge/modelsabaseUrl, quindihttp://127.0.0.1:8000/v1diventahttp://127.0.0.1:8000/v1/models.readyTimeoutMs: scadenza per la disponibilità all’avvio. Predefinito:120000.idleStopMs: ritardo di arresto per inattività per i processi avviati da OpenClaw.0o omesso mantiene il processo attivo finché OpenClaw non esce.
Esempio Inferrs
Inferrs è un backend/v1 personalizzato compatibile con OpenAI, quindi la stessa API di servizio locale funziona con la voce provider inferrs.
command con il risultato di which inferrs sulla macchina che esegue OpenClaw.
Esempio ds4
Note operative
- Un processo OpenClaw gestisce il processo figlio che ha avviato. Un altro processo OpenClaw che vede già attivo lo stesso URL di disponibilità lo riutilizzerà senza adottarlo.
- L’avvio è serializzato per comando del provider e set di argomenti, quindi le richieste concorrenti non generano server duplicati per la stessa configurazione.
- Le risposte in streaming attive mantengono un lease; l’arresto per inattività attende finché la gestione del corpo della risposta non è completa.
- Usa
timeoutSecondssui provider locali lenti in modo che gli avvii a freddo e le generazioni lunghe non raggiungano il timeout predefinito della richiesta del modello. - Usa un
healthUrlesplicito se il server espone la disponibilità in un punto diverso da/v1/models.
Correlati
Modelli locali
Configurazione dei modelli locali, scelte dei provider e indicazioni di sicurezza.
Inferrs
Esegui OpenClaw tramite il server locale Inferrs compatibile con OpenAI.