Provedores de Modelo
O OpenClaw pode usar muitos provedores de LLM. Escolha um provedor, autentique-se e depois defina o modelo padrão comoprovider/model.
Procurando a documentação de canais de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Veja Channels.
Início rápido
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
Documentação dos provedores
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (modelos Trinity)
- BytePlus (internacional)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- modelos GLM
- Google (Gemini)
- Groq (inferência LPU)
- Hugging Face (Inference)
- inferrs (modelos locais)
- Kilocode
- LiteLLM (gateway unificado)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (nuvem + modelos locais)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (busca na web)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (modelos locais)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, com foco em privacidade)
- Vercel AI Gateway
- Vydra
- vLLM (modelos locais)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Páginas gerais compartilhadas
- Variantes incluídas adicionais - Anthropic Vertex, Copilot Proxy e Gemini CLI OAuth
- Geração de Imagens - ferramenta compartilhada
image_generate, seleção de provedor e failover - Geração de Música - ferramenta compartilhada
music_generate, seleção de provedor e failover - Geração de Vídeo - ferramenta compartilhada
video_generate, seleção de provedor e failover
Provedores de transcrição
Ferramentas da comunidade
- Claude Max API Proxy - Proxy da comunidade para credenciais de assinatura do Claude (verifique a política/termos da Anthropic antes de usar)