Fournisseurs de modèles
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez un fournisseur, authentifiez-vous, puis définissez le modèle par défaut sous la formeprovider/model.
Vous cherchez la documentation des canaux de discussion (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ? Consultez Channels.
Démarrage rapide
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
Documentation des fournisseurs
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (modèles Trinity)
- BytePlus (International)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- Modèles GLM
- Google (Gemini)
- Groq (inférence LPU)
- Hugging Face (inférence)
- inferrs (modèles locaux)
- Kilocode
- LiteLLM (passerelle unifiée)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (cloud + modèles locaux)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (recherche web)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (modèles locaux)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, axé sur la confidentialité)
- Vercel AI Gateway
- Vydra
- vLLM (modèles locaux)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Pages d’ensemble partagées
- Variantes intégrées supplémentaires - Anthropic Vertex, Copilot Proxy et Gemini CLI OAuth
- Génération d’images - outil partagé
image_generate, sélection du fournisseur et basculement - Génération musicale - outil partagé
music_generate, sélection du fournisseur et basculement - Génération vidéo - outil partagé
video_generate, sélection du fournisseur et basculement
Fournisseurs de transcription
Outils communautaires
- Claude Max API Proxy - Proxy communautaire pour les identifiants d’abonnement Claude (vérifiez la politique/les conditions d’Anthropic avant utilisation)