Proveedores de modelos
OpenClaw puede usar muchos proveedores de LLM. Elige un proveedor, autentícate y luego establece el modelo predeterminado comoprovider/model.
¿Buscas documentación de canales de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Consulta Canales.
Inicio rápido
- Autentícate con el proveedor (normalmente mediante
openclaw onboard). - Establece el modelo predeterminado:
Documentación de proveedores
- Alibaba Model Studio
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- Arcee AI (modelos Trinity)
- BytePlus (internacional)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- DeepSeek
- fal
- Fireworks
- GitHub Copilot
- Modelos GLM
- Google (Gemini)
- Groq (inferencia LPU)
- Hugging Face (inferencia)
- inferrs (modelos locales)
- Kilocode
- LiteLLM (gateway unificado)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (nube + modelos locales)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (búsqueda web)
- Qianfan
- Qwen Cloud
- Runway
- SGLang (modelos locales)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, centrado en la privacidad)
- Vercel AI Gateway
- Vydra
- vLLM (modelos locales)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
Páginas generales compartidas
- Variantes empaquetadas adicionales - Anthropic Vertex, Copilot Proxy y Gemini CLI OAuth
- Generación de imágenes - Herramienta compartida
image_generate, selección de proveedor y failover - Generación de música - Herramienta compartida
music_generate, selección de proveedor y failover - Generación de video - Herramienta compartida
video_generate, selección de proveedor y failover
Proveedores de transcripción
Herramientas de la comunidad
- Claude Max API Proxy - Proxy de la comunidad para credenciales de suscripción de Claude (verifica la política/los términos de Anthropic antes de usarlo)