Provider di modelli
OpenClaw può usare molti provider LLM. Scegli un provider, autenticati, poi imposta il modello predefinito comeprovider/model.
Cerchi la documentazione sui canali di chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/ecc.)? Vedi Canali.
Avvio rapido
- Autenticati con il provider (di solito tramite
openclaw onboard). - Imposta il modello predefinito:
Documentazione dei provider
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (internazionale)
- Chutes
- Cloudflare AI Gateway
- DeepSeek
- Fireworks
- GitHub Copilot
- Modelli GLM
- Google (Gemini)
- Groq (inferenza LPU)
- Hugging Face (Inference)
- Kilocode
- LiteLLM (gateway unificato)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (modelli cloud + locali)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (ricerca web)
- Qianfan
- Qwen Cloud
- Qwen / Model Studio (dettaglio endpoint;
qwen-*canonico,modelstudio-*legacy) - SGLang (modelli locali)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, orientato alla privacy)
- Vercel AI Gateway
- vLLM (modelli locali)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Pagine di panoramica condivise
- Varianti incluse aggiuntive - Anthropic Vertex, Copilot Proxy e Gemini CLI OAuth
Provider di trascrizione
Strumenti della community
- Claude Max API Proxy - Proxy della community per credenziali di abbonamento Claude (verifica policy/termini Anthropic prima dell’uso)