Model Sağlayıcıları
OpenClaw birçok LLM sağlayıcısını kullanabilir. Bir sağlayıcı seçin, kimlik doğrulaması yapın, ardından varsayılan modeliprovider/model olarak ayarlayın.
Sohbet kanalı belgelerini mi arıyorsunuz (WhatsApp/Telegram/Discord/Slack/Mattermost (eklenti)/vb.)? Kanallar bölümüne bakın.
Hızlı başlangıç
- Sağlayıcıyla kimlik doğrulaması yapın (genellikle
openclaw onboardaracılığıyla). - Varsayılan modeli ayarlayın:
Sağlayıcı belgeleri
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (Uluslararası)
- Chutes
- Cloudflare AI Gateway
- DeepSeek
- Fireworks
- GitHub Copilot
- GLM modelleri
- Google (Gemini)
- Groq (LPU çıkarımı)
- Hugging Face (Inference)
- Kilocode
- LiteLLM (birleşik ağ geçidi)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (bulut + yerel modeller)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (web araması)
- Qianfan
- Qwen Cloud
- Qwen / Model Studio (uç nokta ayrıntısı;
qwen-*kanonik,modelstudio-*eski) - SGLang (yerel modeller)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, gizlilik odaklı)
- Vercel AI Gateway
- vLLM (yerel modeller)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Paylaşılan genel bakış sayfaları
- Ek paketlenmiş varyantlar - Anthropic Vertex, Copilot Proxy ve Gemini CLI OAuth
Transkripsiyon sağlayıcıları
Topluluk araçları
- Claude Max API Proxy - Claude abonelik kimlik bilgileri için topluluk proxy’si (kullanmadan önce Anthropic ilkesini/koşullarını doğrulayın)