Providerzy modeli
OpenClaw może korzystać z wielu providerów LLM. Wybierz jednego, uwierzytelnij się, a następnie ustaw model domyślny jakoprovider/model.
Szybki start (dwa kroki)
- Uwierzytelnij się u providera (zwykle przez
openclaw onboard). - Ustaw model domyślny:
Obsługiwani providerzy (zestaw startowy)
- Alibaba Model Studio
- Anthropic (API + Claude CLI)
- Amazon Bedrock
- BytePlus (międzynarodowy)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- fal
- Fireworks
- Modele GLM
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
Dodatkowe dołączone warianty providerów
anthropic-vertex- niejawna obsługa Anthropic w Google Vertex, gdy dostępne są poświadczenia Vertex; bez osobnego wyboru uwierzytelniania w onboardingucopilot-proxy- lokalny most VS Code Copilot Proxy; użyjopenclaw onboard --auth-choice copilot-proxygoogle-gemini-cli- nieoficjalny przepływ OAuth Gemini CLI; wymaga lokalnej instalacjigemini(brew install gemini-clilubnpm install -g @google/gemini-cli); model domyślnygoogle-gemini-cli/gemini-3-flash-preview; użyjopenclaw onboard --auth-choice google-gemini-clilubopenclaw models auth login --provider google-gemini-cli --set-default