Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
models.providers.<id>.localService permite que o OpenClaw inicie sob demanda um servidor local de modelo pertencente ao provedor. É uma configuração no nível do provedor: quando o modelo selecionado pertence a esse provedor, o OpenClaw verifica o serviço, inicia o processo se o endpoint estiver indisponível, aguarda a prontidão e então envia a solicitação do modelo.
Use isso para servidores locais que são caros de manter em execução o dia todo, ou para configurações manuais em que a seleção do modelo deve bastar para colocar o backend no ar.
Como funciona
- Uma solicitação de modelo é resolvida para um provedor configurado.
- Se esse provedor tiver
localService, o OpenClaw verificahealthUrl. - Se a verificação for bem-sucedida, o OpenClaw usa o servidor existente.
- Se a verificação falhar, o OpenClaw inicia
commandcomargs. - O OpenClaw consulta a prontidão até
readyTimeoutMsexpirar. - A solicitação do modelo é enviada pelo transporte normal do provedor.
- Se o OpenClaw iniciou o processo e
idleStopMsfor positivo, o processo é interrompido depois que a última solicitação em andamento ficar ociosa por esse tempo.
Formato da configuração
Campos
command: caminho absoluto do executável. A busca pelo shell não é usada.args: argumentos do processo. Nenhuma expansão de shell, pipes, globbing ou regras de aspas são aplicadas.cwd: diretório de trabalho opcional para o processo.env: variáveis de ambiente opcionais mescladas sobre o ambiente do processo do OpenClaw.healthUrl: URL de prontidão. Se omitida, o OpenClaw acrescenta/modelsabaseUrl, entãohttp://127.0.0.1:8000/v1se tornahttp://127.0.0.1:8000/v1/models.readyTimeoutMs: prazo de prontidão da inicialização. Padrão:120000.idleStopMs: atraso de desligamento por ociosidade para processos iniciados pelo OpenClaw.0ou omitido mantém o processo ativo até o OpenClaw sair.
Exemplo do Inferrs
Inferrs é um backend/v1 personalizado compatível com OpenAI, então a mesma API de serviço local funciona com a entrada do provedor inferrs.
command pelo resultado de which inferrs na máquina que executa o OpenClaw.
Exemplo do ds4
Observações operacionais
- Um processo do OpenClaw gerencia o filho que ele iniciou. Outro processo do OpenClaw que vê a mesma URL de integridade já ativa a reutilizará sem adotá-la.
- A inicialização é serializada por comando e conjunto de argumentos do provedor, então solicitações concorrentes não geram servidores duplicados para a mesma configuração.
- Respostas de streaming ativas mantêm uma concessão; o desligamento por ociosidade aguarda até que o tratamento do corpo da resposta seja concluído.
- Use
timeoutSecondsem provedores locais lentos para que inicializações a frio e gerações longas não atinjam o tempo limite padrão de solicitação de modelo. - Use um
healthUrlexplícito se o seu servidor expõe prontidão em algum lugar diferente de/v1/models.
Relacionados
Modelos locais
Configuração de modelo local, escolhas de provedor e orientações de segurança.
Inferrs
Execute o OpenClaw pelo servidor local compatível com OpenAI do inferrs.