Dostawcy modeli
OpenClaw może korzystać z wielu dostawców LLM. Wybierz dostawcę, uwierzytelnij się, a następnie ustaw domyślny model jakoprovider/model.
Szukasz dokumentacji kanałów czatu (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/itp.)? Zobacz Kanały.
Szybki start
- Uwierzytelnij się u dostawcy (zwykle przez
openclaw onboard). - Ustaw domyślny model:
Dokumentacja dostawców
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (modele Trinity)
- BytePlus (międzynarodowy)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- Modele GLM
- Google (Gemini)
- Groq (inferencja LPU)
- Hugging Face (inferencja)
- inferrs (modele lokalne)
- Kilocode
- LiteLLM (ujednolicona brama)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (chmura + modele lokalne)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (wyszukiwanie w sieci)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (modele lokalne)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, z naciskiem na prywatność)
- Vercel AI Gateway
- Vydra
- vLLM (modele lokalne)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Wspólne strony przeglądowe
- Dodatkowe dołączone warianty - Anthropic Vertex, Copilot Proxy i Gemini CLI OAuth
- Generowanie obrazów - Współdzielone narzędzie
image_generate, wybór dostawcy i failover - Generowanie muzyki - Współdzielone narzędzie
music_generate, wybór dostawcy i failover - Generowanie wideo - Współdzielone narzędzie
video_generate, wybór dostawcy i failover
Dostawcy transkrypcji
Narzędzia społeczności
- Claude Max API Proxy - Społecznościowy proxy dla poświadczeń subskrypcji Claude (przed użyciem zweryfikuj zasady/warunki Anthropic)