Dostawcy modeli
OpenClaw może używać wielu dostawców LLM. Wybierz jednego, uwierzytelnij się, a potem ustaw model domyślny jakoprovider/model.
Szybki start (dwa kroki)
- Uwierzytelnij się u dostawcy (zwykle przez
openclaw onboard). - Ustaw model domyślny:
Obsługiwani dostawcy (zestaw startowy)
- Anthropic (API + Claude CLI)
- Amazon Bedrock
- BytePlus (International)
- Chutes
- Cloudflare AI Gateway
- Fireworks
- GLM models
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Dodatkowe warianty dołączonych dostawców
anthropic-vertex- niejawna obsługa Anthropic na Google Vertex, gdy dostępne są poświadczenia Vertex; bez osobnego wyboru auth w onboardingucopilot-proxy- lokalny most VS Code Copilot Proxy; użyjopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- nieoficjalny przepływ OAuth Gemini CLI; wymaga lokalnej instalacjigemini(brew install gemini-clialbonpm install -g @google/gemini-cli); domyślny modelgoogle-gemini-cli/gemini-3.1-pro-preview; użyjopenclaw onboard --auth-choice google-gemini-clialboopenclaw models auth login --provider google-gemini-cli --set-default