Fournisseurs de modèles
OpenClaw peut utiliser de nombreux fournisseurs LLM. Choisissez-en un, authentifiez-vous, puis définissez le modèle par défaut sous la formeprovider/model.
Démarrage rapide (deux étapes)
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
Fournisseurs pris en charge (ensemble de démarrage)
- Anthropic (API + Claude CLI)
- Amazon Bedrock
- BytePlus (international)
- Chutes
- Cloudflare AI Gateway
- Fireworks
- Modèles GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Variantes de fournisseurs intégrés supplémentaires
anthropic-vertex- prise en charge implicite d’Anthropic sur Google Vertex lorsque les identifiants Vertex sont disponibles ; pas de choix d’authentification d’onboarding séparécopilot-proxy- passerelle locale VS Code Copilot Proxy ; utilisezopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- flux OAuth non officiel Gemini CLI ; nécessite une installation locale degemini(brew install gemini-cliounpm install -g @google/gemini-cli) ; modèle par défautgoogle-gemini-cli/gemini-3.1-pro-preview; utilisezopenclaw onboard --auth-choice google-gemini-cliouopenclaw models auth login --provider google-gemini-cli --set-default