Provider di modelli
OpenClaw può usare molti provider LLM. Scegli un provider, autenticati, quindi imposta il modello predefinito comeprovider/model.
Cerchi la documentazione dei canali chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/ecc.)? Vedi Channels.
Avvio rapido
- Autenticati con il provider (di solito tramite
openclaw onboard). - Imposta il modello predefinito:
Documentazione dei provider
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (modelli Trinity)
- BytePlus (internazionale)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- Modelli GLM
- Google (Gemini)
- Groq (inferenza LPU)
- Hugging Face (Inference)
- inferrs (modelli locali)
- Kilocode
- LiteLLM (gateway unificato)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (cloud + modelli locali)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (ricerca web)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (modelli locali)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, focalizzato sulla privacy)
- Vercel AI Gateway
- Vydra
- vLLM (modelli locali)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Pagine panoramiche condivise
- Ulteriori varianti incluse - Anthropic Vertex, Copilot Proxy e Gemini CLI OAuth
- Generazione di immagini - Strumento condiviso
image_generate, selezione del provider e failover - Generazione musicale - Strumento condiviso
music_generate, selezione del provider e failover - Generazione video - Strumento condiviso
video_generate, selezione del provider e failover
Provider di trascrizione
Strumenti della community
- Claude Max API Proxy - Proxy della community per credenziali di abbonamento Claude (verifica policy/termini di Anthropic prima dell’uso)