모델 공급자
OpenClaw는 많은 LLM 공급자를 사용할 수 있습니다. 공급자를 선택하고 인증한 다음 기본 모델을provider/model로 설정하세요.
채팅 채널 문서(WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/기타)를 찾고 있나요? 채널을 참조하세요.
빠른 시작
- 공급자로 인증합니다(보통
openclaw onboard를 통해). - 기본 모델을 설정합니다:
공급자 문서
- Amazon Bedrock
- Anthropic (API + Claude CLI)
- BytePlus (International)
- Chutes
- Cloudflare AI Gateway
- DeepSeek
- Fireworks
- GitHub Copilot
- GLM 모델
- Google (Gemini)
- Groq (LPU 추론)
- Hugging Face (추론)
- Kilocode
- LiteLLM (통합 게이트웨이)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (클라우드 + 로컬 모델)
- OpenAI (API + Codex)
- OpenCode
- OpenCode Go
- OpenRouter
- Perplexity (웹 검색)
- Qianfan
- Qwen Cloud
- Qwen / Model Studio (엔드포인트 세부 정보;
qwen-*가 정식이며modelstudio-*는 레거시) - SGLang (로컬 모델)
- StepFun
- Synthetic
- Together AI
- Venice (Venice AI, 개인 정보 보호 중심)
- Vercel AI Gateway
- vLLM (로컬 모델)
- Volcengine (Doubao)
- xAI
- Xiaomi
- Z.AI
공유 개요 페이지
- 추가 번들 변형 - Anthropic Vertex, Copilot Proxy 및 Gemini CLI OAuth
전사 공급자
커뮤니티 도구
- Claude Max API Proxy - Claude 구독 자격 증명을 위한 커뮤니티 프록시(사용 전에 Anthropic 정책/약관을 확인하세요)