Modellanbieter
OpenClaw kann viele LLM-Anbieter verwenden. Wählen Sie einen Anbieter aus, authentifizieren Sie sich und legen Sie dann das Standardmodell alsprovider/model fest.
Suchen Sie nach Dokumentation zu Chat-Kanälen (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/etc.)? Siehe Kanäle.
Schnellstart
- Authentifizieren Sie sich beim Anbieter (normalerweise über
openclaw onboard). - Legen Sie das Standardmodell fest:
Anbieterdokumentation
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (Trinity-Modelle)
- BytePlus (international)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- GLM-Modelle
- Google (Gemini)
- Groq (LPU-Inferenz)
- Hugging Face (Inferenz)
- inferrs (lokale Modelle)
- Kilocode
- LiteLLM (einheitliches Gateway)
- LM Studio (lokale Modelle)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (Cloud- und lokale Modelle)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (Websuche)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (lokale Modelle)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, datenschutzorientiert)
- Vercel AI Gateway
- Vydra
- vLLM (lokale Modelle)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Gemeinsame Übersichtsseiten
- Zusätzliche gebündelte Varianten - Anthropic Vertex, Copilot Proxy und Gemini CLI OAuth
- Bildgenerierung - Gemeinsames
image_generate-Tool, Anbieterauswahl und Failover - Musikgenerierung - Gemeinsames
music_generate-Tool, Anbieterauswahl und Failover - Videogenerierung - Gemeinsames
video_generate-Tool, Anbieterauswahl und Failover
Anbieter für Transkription
Community-Tools
- Claude Max API Proxy - Community-Proxy für Claude-Abonnement-Anmeldedaten (überprüfen Sie vor der Verwendung die Richtlinien/Nutzungsbedingungen von Anthropic)