Model-Provider
OpenClaw kann viele LLM-Provider verwenden. Wählen Sie einen Provider aus, authentifizieren Sie sich und setzen Sie dann das Standard-Model alsprovider/model.
Suchen Sie nach Dokumentation zu Chat-Channels (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/usw.)? Siehe Channels.
Schnellstart
- Beim Provider authentifizieren (normalerweise über
openclaw onboard). - Das Standard-Model festlegen:
Provider-Dokumentation
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- Cloudflare AI Gateway
- DeepSeek
- Fireworks
- GitHub Copilot
- GLM-Modelle
- Google (Gemini)
- Groq (LPU-Inferenz)
- Hugging Face (Inference)
- Kilocode
- LiteLLM (einheitliches Gateway)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (Cloud- + lokale Modelle)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (Websuche)
- Qianfan
- Qwen Cloud
- Qwen / Model Studio (Endpunktdetails;
qwen-*kanonisch,modelstudio-*veraltet) - SGLang (lokale Modelle)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, datenschutzorientiert)
- Vercel AI Gateway
- vLLM (lokale Modelle)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Gemeinsame Übersichtsseiten
- Zusätzliche gebündelte Varianten - Anthropic Vertex, Copilot Proxy und Gemini CLI OAuth
Transkriptions-Provider
Community-Tools
- Claude Max API Proxy - Community-Proxy für Claude-Abonnement-Zugangsdaten (prüfen Sie vor der Nutzung die Richtlinien/Nutzungsbedingungen von Anthropic)