Постачальники моделей
OpenClaw може використовувати багато постачальників LLM. Виберіть постачальника, пройдіть автентифікацію, а потім установіть модель за замовчуванням якprovider/model.
Шукаєте документацію щодо каналів чату (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/тощо)? Див. Channels.
Швидкий старт
- Пройдіть автентифікацію у постачальника (зазвичай через
openclaw onboard). - Установіть модель за замовчуванням:
Документація постачальників
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (моделі Trinity)
- BytePlus (міжнародний)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- моделі GLM
- Google (Gemini)
- Groq (LPU inference)
- Hugging Face (Inference)
- inferrs (локальні моделі)
- Kilocode
- LiteLLM (уніфікований Gateway)
- LM Studio (локальні моделі)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (хмарні + локальні моделі)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (вебпошук)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (локальні моделі)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, з акцентом на конфіденційність)
- Vercel AI Gateway
- Vydra
- vLLM (локальні моделі)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Спільні сторінки огляду
- Додаткові вбудовані варіанти - Anthropic Vertex, Copilot Proxy і Gemini CLI OAuth
- Генерація зображень - спільний інструмент
image_generate, вибір постачальника та перемикання при відмові - Генерація музики - спільний інструмент
music_generate, вибір постачальника та перемикання при відмові - Генерація відео - спільний інструмент
video_generate, вибір постачальника та перемикання при відмові
Постачальники транскрибування
Інструменти спільноти
- Claude Max API Proxy - Проксі спільноти для облікових даних підписки Claude (перед використанням перевірте політику/умови Anthropic)