モデルプロバイダー
このページではLLM/モデルプロバイダーを扱います(WhatsApp/Telegramのようなチャットチャネルではありません)。 モデル選択ルールについては、/concepts/models を参照してください。クイックルール
- モデル参照は
provider/modelを使います(例:opencode/claude-opus-4-6)。 agents.defaults.modelsを設定すると、それがallowlistになります。- CLIヘルパー:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 - フォールバックのランタイムルール、クールダウンプローブ、セッション上書きの永続化については、/concepts/model-failover に記載されています。
models.providers.*.models[].contextWindowはネイティブなモデルメタデータです。models.providers.*.models[].contextTokensは実効ランタイム上限です。- プロバイダープラグインは
registerProvider({ catalog })を通じてモデルカタログを注入できます。 OpenClawはその出力をmodels.providersにマージしてからmodels.jsonを書き込みます。 - プロバイダーマニフェストは
providerAuthEnvVarsを宣言できるため、汎用のenvベース認証プローブでプラグインランタイムを読み込む必要がありません。残るコアのenv-varマップは、現在では非プラグイン/コアプロバイダー用と、AnthropicのAPIキーファーストなオンボーディングのような一部の汎用優先順位ケース用だけです。 - プロバイダープラグインは、
normalizeModelId、normalizeTransport、normalizeConfig、applyNativeStreamingUsageCompat、resolveConfigApiKey、resolveSyntheticAuth、shouldDeferSyntheticProfileAuth、resolveDynamicModel、prepareDynamicModel、normalizeResolvedModel、contributeResolvedModelCompat、capabilities、normalizeToolSchemas、inspectToolSchemas、resolveReasoningOutputMode、prepareExtraParams、createStreamFn、wrapStreamFn、resolveTransportTurnState、resolveWebSocketSessionPolicy、createEmbeddingProvider、formatApiKey、refreshOAuth、buildAuthDoctorHint、matchesContextOverflowError、classifyFailoverReason、isCacheTtlEligible、buildMissingAuthMessage、suppressBuiltInModel、augmentModelCatalog、isBinaryThinking、supportsXHighThinking、resolveDefaultThinkingLevel、applyConfigDefaults、isModernModelRef、prepareRuntimeAuth、resolveUsageAuth、fetchUsageSnapshot、およびonModelSelectedを通じてプロバイダーランタイム動作も所有できます。 - 注: プロバイダーランタイムの
capabilitiesは共有ランナーメタデータ (プロバイダーファミリー、トランスクリプト/ツールの癖、トランスポート/キャッシュのヒント)です。これは、プラグインが何を登録するか(テキスト推論、音声など)を説明する公開capabilityモデルとは別物です。
プラグイン所有のプロバイダー動作
OpenClawが汎用推論ループを維持しつつ、プロバイダープラグインがほとんどのプロバイダー固有ロジックを所有できるようになりました。 一般的な分担:auth[].run/auth[].runNonInteractive: プロバイダーがopenclaw onboard、openclaw models auth、ヘッドレスセットアップ向けのオンボーディング/ログインフローを所有wizard.setup/wizard.modelPicker: プロバイダーが認証選択ラベル、レガシーエイリアス、オンボーディングallowlistヒント、オンボーディング/モデルピッカー内のセットアップ項目を所有catalog: プロバイダーがmodels.providersに表示されるnormalizeModelId: プロバイダーがルックアップや正規化の前にレガシー/プレビューモデルIDを正規化normalizeTransport: プロバイダーが汎用モデル組み立て前にトランスポート系のapi/baseUrlを正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際にトランスポートを変更するまでほかのhook対応プロバイダープラグインを順に確認しますnormalizeConfig: プロバイダーがランタイム使用前にmodels.providers.<id>設定を正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際に設定を変更するまでほかのhook対応プロバイダープラグインを順に確認します。どのプロバイダーフックも設定を書き換えない場合、バンドルされたGoogle系ヘルパーが引き続き対応するGoogleプロバイダーエントリーを正規化します。applyNativeStreamingUsageCompat: プロバイダーが設定済みプロバイダー向けに、エンドポイント駆動のネイティブなstreaming-usage互換書き換えを適用resolveConfigApiKey: プロバイダーが、完全なランタイム認証の読み込みを強制せずに、設定済みプロバイダー向けのenv-marker認証を解決。amazon-bedrockもここで組み込みのAWS env-markerリゾルバーを持ちますが、Bedrockランタイム認証自体はAWS SDKのデフォルトチェーンを使います。resolveSyntheticAuth: プロバイダーが、平文シークレットを永続化せずに、local/self-hostedやその他の設定ベース認証の利用可能性を公開できるshouldDeferSyntheticProfileAuth: プロバイダーが、保存されたsynthetic profile placeholderをenv/configベース認証よりも低優先度として扱えるresolveDynamicModel: プロバイダーが、まだローカルの静的カタログに存在しないモデルIDを受け入れるprepareDynamicModel: プロバイダーが、動的解決を再試行する前にメタデータ更新を必要とするnormalizeResolvedModel: プロバイダーが、トランスポートまたはbase URLの書き換えを必要とするcontributeResolvedModelCompat: プロバイダーが、別の互換トランスポート経由で届く場合でも、自社ベンダーモデル向けのcompatフラグを提供するcapabilities: プロバイダーがトランスクリプト/ツール/プロバイダーファミリーの癖を公開するnormalizeToolSchemas: プロバイダーが埋め込みランナーに渡る前にツールスキーマを整えるinspectToolSchemas: プロバイダーが正規化後にトランスポート固有のスキーマ警告を表面化するresolveReasoningOutputMode: プロバイダーがネイティブまたはタグ付きのreasoning-output契約を選択するprepareExtraParams: プロバイダーがモデルごとのリクエストパラメータをデフォルト化または正規化するcreateStreamFn: プロバイダーが通常のストリーム経路を完全カスタムのトランスポートに置き換えるwrapStreamFn: プロバイダーがリクエストヘッダー/本文/モデル互換ラッパーを適用するresolveTransportTurnState: プロバイダーがターンごとのネイティブトランスポートヘッダーまたはメタデータを提供するresolveWebSocketSessionPolicy: プロバイダーがネイティブWebSocketセッションヘッダーまたはセッションクールダウンポリシーを提供するcreateEmbeddingProvider: プロバイダーが、それがコアのembedding switchboardではなくプロバイダープラグイン側に属すべき場合に、メモリembedding動作を所有するformatApiKey: プロバイダーが保存済み認証プロファイルを、トランスポートが期待するランタイムapiKey文字列に整形するrefreshOAuth: 共有のpi-aiリフレッシャーで足りない場合に、プロバイダーがOAuth更新を所有するbuildAuthDoctorHint: プロバイダーがOAuth更新失敗時に修復ガイダンスを追加するmatchesContextOverflowError: プロバイダーが、汎用ヒューリスティクスでは見逃すプロバイダー固有のcontext-window overflowエラーを認識するclassifyFailoverReason: プロバイダーが、プロバイダー固有の生のtransport/APIエラーを、rate limitやoverloadのようなfailover reasonにマッピングするisCacheTtlEligible: プロバイダーが、どのupstream model idがprompt-cache TTLをサポートするかを判定するbuildMissingAuthMessage: プロバイダーが、汎用auth-storeエラーをプロバイダー固有の復旧ヒントに置き換えるsuppressBuiltInModel: プロバイダーが古いupstream行を隠し、直接解決失敗に対してベンダー所有のエラーを返せるaugmentModelCatalog: プロバイダーが検出と設定マージ後にsynthetic/final catalog行を追加するisBinaryThinking: プロバイダーが二値のオン/オフthinking UXを所有するsupportsXHighThinking: プロバイダーが選択したモデルをxhighに対応させるresolveDefaultThinkingLevel: プロバイダーがモデルファミリー向けのデフォルト/thinkポリシーを所有するapplyConfigDefaults: プロバイダーが、認証モード、env、またはモデルファミリーに基づいて、設定の具現化時にプロバイダー固有のグローバルデフォルトを適用するisModernModelRef: プロバイダーがlive/smoke向けの優先モデル一致を所有するprepareRuntimeAuth: プロバイダーが設定済み認証情報を短命のランタイムトークンに変換するresolveUsageAuth: プロバイダーが/usageおよび関連するstatus/reporting画面向けのusage/quota認証情報を解決するfetchUsageSnapshot: プロバイダーがusage endpointの取得/解析を所有し、コアはサマリーの外枠と整形を引き続き所有するonModelSelected: プロバイダーが、telemetryやプロバイダー所有のセッション管理のような選択後副作用を実行する
anthropic: Claude 4.6のforward-compat fallback、auth repair hint、usage endpoint取得、cache-TTL/provider-family metadata、およびauth-awareなグローバル設定デフォルトamazon-bedrock: Bedrock固有のthrottle/not-readyエラーに対するプロバイダー所有のcontext-overflow一致とfailover reason分類、加えてAnthropicトラフィック上のClaude専用replay-policy guard向け共有anthropic-by-modelreplay familyanthropic-vertex: Anthropic-messageトラフィック上のClaude専用replay-policy guardopenrouter: パススルーモデルID、リクエストラッパー、プロバイダーcapabilityヒント、プロキシGeminiトラフィック上のGemini thought-signatureサニタイズ、openrouter-thinkingstream family経由のプロキシreasoning注入、ルーティングメタデータ転送、およびcache-TTLポリシーgithub-copilot: オンボーディング/デバイスログイン、forward-compat model fallback、Claude-thinking transcript hint、ランタイムトークン交換、およびusage endpoint取得openai: GPT-5.4のforward-compat fallback、直接のOpenAIトランスポート正規化、Codex対応のmissing-authヒント、Spark抑制、syntheticなOpenAI/Codex catalog行、thinking/live-model policy、usage-token alias正規化(input/outputおよびprompt/completionファミリー)、ネイティブOpenAI/Codexラッパー向け共有openai-responses-defaultsstream family、およびprovider-family metadatagoogleとgoogle-gemini-cli: Gemini 3.1のforward-compat fallback、ネイティブGemini replay validation、bootstrap replay sanitation、タグ付きreasoning-output mode、およびmodern-model matching。Gemini CLI OAuthは、usage画面向けにauth-profile token formatting、usage-token parsing、quota endpoint取得も所有しますmoonshot: 共有トランスポート、プラグイン所有のthinking payload正規化kilocode: 共有トランスポート、プラグイン所有のリクエストヘッダー、reasoning payload正規化、proxy-Gemini thought-signature sanitation、およびcache-TTLポリシーzai: GLM-5のforward-compat fallback、tool_streamデフォルト、cache-TTLポリシー、binary-thinking/live-model policy、およびusage auth + quota取得。未知のglm-5*IDはバンドルされたglm-4.7テンプレートから合成されますxai: ネイティブResponsesトランスポート正規化、Grok fastバリアント向け/fastエイリアス書き換え、デフォルトtool_stream、およびxAI固有のtool-schema / reasoning-payloadクリーンアップmistral: プラグイン所有のcapability metadataopencodeとopencode-go: プラグイン所有のcapability metadataに加え、proxy-Gemini thought-signature sanitationbyteplus、cloudflare-ai-gateway、huggingface、kimi、nvidia、qianfan、stepfun、synthetic、together、venice、vercel-ai-gateway、およびvolcengine: プラグイン所有のcatalogのみqwen: テキストモデル向けのプラグイン所有catalogに加え、そのマルチモーダル画面向けに共有のmedia-understandingおよびvideo-generation provider registration。Qwenの動画生成は、wan2.6-t2vやwan2.7-r2vなどのバンドルWanモデルを含む標準DashScope video endpointを使用しますminimax: プラグイン所有catalog、ハイブリッドAnthropic/OpenAI replay-policy選択、およびusage auth/snapshotロジックxiaomi: プラグイン所有catalogに加え、usage auth/snapshotロジック
openai プラグインは現在、openai と
openai-codex の両方のprovider idを所有しています。
これは、まだOpenClawの通常トランスポートに収まるプロバイダーを対象としています。完全にカスタムのリクエスト実行器を必要とするプロバイダーは、別のより深い拡張インターフェースです。
APIキーのローテーション
- 選択されたプロバイダーで汎用プロバイダーローテーションをサポートします。
- 複数キーの設定方法:
OPENCLAW_LIVE_<PROVIDER>_KEY(単一のlive override、最優先)<PROVIDER>_API_KEYS(カンマまたはセミコロン区切りのリスト)<PROVIDER>_API_KEY(プライマリキー)<PROVIDER>_API_KEY_*(番号付きリスト。例:<PROVIDER>_API_KEY_1)
- Googleプロバイダーでは、フォールバックとして
GOOGLE_API_KEYも含まれます。 - キー選択順は優先順位を維持しつつ値を重複排除します。
- リクエストは、rate-limit応答の場合にのみ次のキーで再試行されます(たとえば
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded、または定期的なusage-limitメッセージ)。 - rate-limit以外の失敗は即座に失敗し、キーローテーションは試行されません。
- すべての候補キーが失敗した場合、最後の試行の最終エラーが返されます。
組み込みプロバイダー(pi-ai catalog)
OpenClawにはpi-ai catalogが同梱されています。これらのプロバイダーではmodels.providers 設定は不要で、認証を設定してモデルを選ぶだけです。
OpenAI
- プロバイダー:
openai - 認証:
OPENAI_API_KEY - 任意のローテーション:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2、およびOPENCLAW_LIVE_OPENAI_KEY(単一override) - モデル例:
openai/gpt-5.4、openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - デフォルトのトランスポートは
autoです(WebSocket優先、SSEフォールバック) - モデルごとの上書きは
agents.defaults.models["openai/<model>"].params.transport("sse"、"websocket"、または"auto")で行います - OpenAI Responses WebSocket warm-upは、デフォルトで
params.openaiWsWarmup(true/false)により有効です - OpenAI priority processingは
agents.defaults.models["openai/<model>"].params.serviceTierで有効化できます /fastとparams.fastModeは、api.openai.comへの直接openai/*Responsesリクエストをservice_tier=priorityにマップします- 共有の
/fastトグルではなく明示的なtierを使いたい場合はparams.serviceTierを使用してください - 非表示のOpenClaw attribution header(
originator、version、User-Agent)は、汎用のOpenAI互換プロキシではなく、api.openai.comへのネイティブOpenAIトラフィックにのみ適用されます - ネイティブOpenAIルートでは、Responsesの
store、prompt-cacheヒント、OpenAI reasoning-compat payload shapingも保持されます。プロキシルートでは保持されません openai/gpt-5.3-codex-sparkは、live OpenAI APIが拒否するため、OpenClawでは意図的に抑制されています。SparkはCodex専用として扱われます
Anthropic
- プロバイダー:
anthropic - 認証:
ANTHROPIC_API_KEY - 任意のローテーション:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2、およびOPENCLAW_LIVE_ANTHROPIC_KEY(単一override) - モデル例:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKeyまたはopenclaw onboard --auth-choice anthropic-cli - 直接の公開Anthropicリクエストは、
api.anthropic.comに送られるAPIキー認証トラフィックとOAuth認証トラフィックの両方で、共有の/fastトグルとparams.fastModeをサポートします。OpenClawはこれをAnthropicのservice_tier(autoまたはstandard_only)にマップします - 課金メモ: Anthropicの公開Claude Codeドキュメントでは、依然として直接のClaude Codeターミナル利用がClaudeプラン上限に含まれています。これとは別に、Anthropicは 2026年4月4日 12:00 PM PT / 8:00 PM BST にOpenClawユーザーへ、OpenClaw のClaudeログイン経路はサードパーティーハーネス利用としてカウントされ、サブスクリプションとは別請求の Extra Usage が必要であると通知しました。
- Anthropic setup-tokenは、レガシー/手動のOpenClaw経路として再び利用可能です。この経路には Extra Usage が必要だとAnthropicがOpenClawユーザーへ通知した前提で使用してください。
OpenAI Code(Codex)
- プロバイダー:
openai-codex - 認証: OAuth(ChatGPT)
- モデル例:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexまたはopenclaw models auth login --provider openai-codex - デフォルトのトランスポートは
autoです(WebSocket優先、SSEフォールバック) - モデルごとの上書きは
agents.defaults.models["openai-codex/<model>"].params.transport("sse"、"websocket"、または"auto")で行います params.serviceTierは、ネイティブCodex Responsesリクエスト(chatgpt.com/backend-api)でも転送されます- 非表示のOpenClaw attribution header(
originator、version、User-Agent)は、汎用のOpenAI互換プロキシではなく、chatgpt.com/backend-apiへのネイティブCodexトラフィックにのみ付加されます - 直接の
openai/*と同じ/fastトグルとparams.fastMode設定を共有し、OpenClawはそれをservice_tier=priorityにマップします openai-codex/gpt-5.3-codex-sparkは、Codex OAuth catalogが公開している場合は引き続き利用可能です。entitlement依存ですopenai-codex/gpt-5.4はネイティブのcontextWindow = 1050000とデフォルトランタイムのcontextTokens = 272000を維持します。ランタイム上限はmodels.providers.openai-codex.models[].contextTokensで上書きしてください- ポリシーメモ: OpenAI Codex OAuthは、OpenClawのような外部ツール/ワークフロー向けに明示的にサポートされています
そのほかのサブスクリプション型ホストオプション
- Qwen Cloud: Qwen Cloudのプロバイダー画面に加え、Alibaba DashScopeおよびCoding Planエンドポイントのマッピング
- MiniMax: MiniMax Coding Plan OAuthまたはAPIキーアクセス
- GLM Models: Z.AI Coding Planまたは一般APIエンドポイント
OpenCode
- 認証:
OPENCODE_API_KEY(またはOPENCODE_ZEN_API_KEY) - Zenランタイムプロバイダー:
opencode - Goランタイムプロバイダー:
opencode-go - モデル例:
opencode/claude-opus-4-6、opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenまたはopenclaw onboard --auth-choice opencode-go
Google Gemini(APIキー)
- プロバイダー:
google - 認証:
GEMINI_API_KEY - 任意のローテーション:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEYフォールバック、およびOPENCLAW_LIVE_GEMINI_KEY(単一override) - モデル例:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 互換性:
google/gemini-3.1-flash-previewを使うレガシーOpenClaw設定は、google/gemini-3-flash-previewに正規化されます - CLI:
openclaw onboard --auth-choice gemini-api-key - 直接のGemini実行では、
agents.defaults.models["google/<model>"].params.cachedContent(またはレガシーのcached_content)も受け付け、プロバイダーネイティブなcachedContents/...ハンドルを転送します。GeminiのキャッシュヒットはOpenClawのcacheReadとして表面化されます
Google Vertex と Gemini CLI
- プロバイダー:
google-vertex、google-gemini-cli - 認証: Vertexはgcloud ADCを使用し、Gemini CLIは独自のOAuthフローを使用します
- 注意: OpenClawにおけるGemini CLI OAuthは非公式の統合です。サードパーティークライアントを使用した後にGoogleアカウント制限がかかったという報告があります。利用する場合はGoogleの規約を確認し、重要でないアカウントを使用してください。
- Gemini CLI OAuthは、バンドルされた
googleプラグインの一部として提供されています。- まずGemini CLIをインストールします:
brew install gemini-cli- または
npm install -g @google/gemini-cli
- 有効化:
openclaw plugins enable google - ログイン:
openclaw models auth login --provider google-gemini-cli --set-default - デフォルトモデル:
google-gemini-cli/gemini-3.1-pro-preview - 注:
openclaw.jsonにclient idやsecretを貼り付けることはありません。CLIログインフローは、gateway host上のauth profileにトークンを保存します。 - ログイン後にリクエストが失敗する場合は、gateway hostで
GOOGLE_CLOUD_PROJECTまたはGOOGLE_CLOUD_PROJECT_IDを設定してください。 - Gemini CLIのJSON応答は
responseから解析され、usageはstatsにフォールバックし、stats.cachedはOpenClawのcacheReadに正規化されます。
- まずGemini CLIをインストールします:
Z.AI(GLM)
- プロバイダー:
zai - 認証:
ZAI_API_KEY - モデル例:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- エイリアス:
z.ai/*とz-ai/*はzai/*に正規化されます zai-api-keyは一致するZ.AIエンドポイントを自動検出します。zai-coding-global、zai-coding-cn、zai-global、zai-cnは特定の画面を強制します
- エイリアス:
Vercel AI Gateway
- プロバイダー:
vercel-ai-gateway - 認証:
AI_GATEWAY_API_KEY - モデル例:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- プロバイダー:
kilocode - 認証:
KILOCODE_API_KEY - モデル例:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - Base URL:
https://api.kilo.ai/api/gateway/ - 静的フォールバックcatalogには
kilocode/kilo/autoが同梱され、 liveなhttps://api.kilo.ai/api/gateway/models検出によりランタイム catalogがさらに拡張されることがあります。 kilocode/kilo/autoの背後にある正確なupstream routingは、OpenClawにハードコードされているのではなく、Kilo Gatewayが所有します。
そのほかのバンドル済みプロバイダープラグイン
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - モデル例:
openrouter/auto - OpenClawは、リクエストが実際に
openrouter.aiを対象にしている場合にのみ、OpenRouterが文書化しているapp-attribution headerを適用します - OpenRouter固有のAnthropic
cache_controlマーカーも、任意のプロキシURLではなく、検証済みOpenRouterルートにのみ適用されます - OpenRouterは引き続きプロキシ型のOpenAI互換経路上にあるため、ネイティブOpenAI専用のリクエスト整形(
serviceTier、Responsesstore、 prompt-cacheヒント、OpenAI reasoning-compat payload)は転送されません - GeminiベースのOpenRouter参照は、proxy-Gemini thought-signature sanitationのみを維持します。ネイティブGemini replay validationおよびbootstrap rewriteは有効になりません
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - モデル例:
kilocode/kilo/auto - GeminiベースのKilo参照は同じproxy-Gemini thought-signature
sanitation経路を維持します。
kilocode/kilo/autoやその他のproxy-reasoning非対応ヒントでは、proxy reasoning injectionはスキップされます - MiniMax:
minimax(APIキー)およびminimax-portal(OAuth) - 認証:
MINIMAX_API_KEYはminimax用、MINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEYはminimax-portal用 - モデル例:
minimax/MiniMax-M2.7またはminimax-portal/MiniMax-M2.7 - MiniMaxのオンボーディング/APIキーセットアップでは、
input: ["text", "image"]を持つ明示的なM2.7モデル定義を書き込みます。バンドルされたprovider catalogは、そのprovider設定が具現化されるまではチャット参照をtext-onlyのままにします - Moonshot:
moonshot(MOONSHOT_API_KEY) - モデル例:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYまたはKIMICODE_API_KEY) - モデル例:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - モデル例:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY、MODELSTUDIO_API_KEY、またはDASHSCOPE_API_KEY) - モデル例:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - モデル例:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - モデル例:
stepfun/step-3.5-flash、stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - モデル例:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - モデル例:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENまたはHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - モデル例:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - モデル例:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- ネイティブのバンドル済みxAIリクエストはxAI Responses経路を使用します
/fastまたはparams.fastMode: trueは、grok-3、grok-3-mini、grok-4、grok-4-0709をそれぞれの*-fastバリアントに書き換えますtool_streamはデフォルトで有効です。無効にするにはagents.defaults.models["xai/<model>"].params.tool_streamをfalseに設定してください
- Mistral:
mistral(MISTRAL_API_KEY) - モデル例:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Cerebras上のGLMモデルは
zai-glm-4.7およびzai-glm-4.6というIDを使います。 - OpenAI互換base URL:
https://api.cerebras.ai/v1。
- Cerebras上のGLMモデルは
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inferenceのモデル例:
huggingface/deepseek-ai/DeepSeek-R1。CLI:openclaw onboard --auth-choice huggingface-api-key。Hugging Face(Inference) を参照してください。
models.providers 経由のプロバイダー(カスタム/base URL)
カスタムプロバイダーや
OpenAI/Anthropic互換プロキシを追加するには、models.providers (または models.json)を使います。
以下のバンドル済みプロバイダープラグインの多くは、すでにデフォルトcatalogを公開しています。
デフォルトのbase URL、header、またはmodel listを上書きしたい場合にのみ、明示的な models.providers.<id> エントリーを使ってください。
Moonshot AI(Kimi)
Moonshotはバンドル済みプロバイダープラグインとして提供されています。デフォルトでは組み込みプロバイダーを使用し、base URLまたはモデルメタデータを上書きしたい場合にのみ明示的なmodels.providers.moonshot エントリーを追加してください。
- プロバイダー:
moonshot - 認証:
MOONSHOT_API_KEY - モデル例:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyまたはopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi CodingはMoonshot AIのAnthropic互換エンドポイントを使用します。- プロバイダー:
kimi - 認証:
KIMI_API_KEY - モデル例:
kimi/kimi-code
kimi/k2p5 も互換モデルIDとして引き続き受け付けられます。
Volcano Engine(Doubao)
Volcano Engine(火山引擎)は、中国でDoubaoやその他のモデルへのアクセスを提供します。- プロバイダー:
volcengine(coding:volcengine-plan) - 認証:
VOLCANO_ENGINE_API_KEY - モデル例:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*
catalogも同時に登録されます。
オンボーディング/モデル設定ピッカーでは、Volcengine認証選択は
volcengine/* と volcengine-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のprovider-scoped pickerを表示する代わりに、フィルターなしcatalogへフォールバックします。
利用可能なモデル:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus(International)
BytePlus ARKは、国際ユーザー向けにVolcano Engineと同じモデルへのアクセスを提供します。- プロバイダー:
byteplus(coding:byteplus-plan) - 認証:
BYTEPLUS_API_KEY - モデル例:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*
catalogも同時に登録されます。
オンボーディング/モデル設定ピッカーでは、BytePlus認証選択は
byteplus/* と byteplus-plan/* の両方の行を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のprovider-scoped pickerを表示する代わりに、フィルターなしcatalogへフォールバックします。
利用可能なモデル:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Syntheticは、synthetic プロバイダーの背後でAnthropic互換モデルを提供します。
- プロバイダー:
synthetic - 認証:
SYNTHETIC_API_KEY - モデル例:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMaxはカスタムエンドポイントを使うため、models.providers 経由で設定されます。
- MiniMax OAuth(Global):
--auth-choice minimax-global-oauth - MiniMax OAuth(CN):
--auth-choice minimax-cn-oauth - MiniMax APIキー(Global):
--auth-choice minimax-global-api - MiniMax APIキー(CN):
--auth-choice minimax-cn-api - 認証:
MINIMAX_API_KEYはminimax用、MINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEYはminimax-portal用
/fast on は
MiniMax-M2.7 を MiniMax-M2.7-highspeed に書き換えます。
プラグイン所有のcapability分割:
- テキスト/チャットのデフォルトは
minimax/MiniMax-M2.7のままです - 画像生成は
minimax/image-01またはminimax-portal/image-01です - 画像理解は、両方のMiniMax認証経路でプラグイン所有の
MiniMax-VL-01です - Web検索はプロバイダーID
minimaxのままです
Ollama
Ollamaはバンドル済みプロバイダープラグインとして提供され、OllamaのネイティブAPIを使用します。- プロバイダー:
ollama - 認証: 不要(ローカルサーバー)
- モデル例:
ollama/llama3.3 - インストール: https://ollama.com/download
OLLAMA_API_KEY でローカルopt-inすると、Ollamaは
http://127.0.0.1:11434 で自動検出され、バンドル済みプロバイダープラグインがOllamaを直接
openclaw onboard とモデルピッカーに追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については /providers/ollama
を参照してください。
vLLM
vLLMは、local/self-hostedなOpenAI互換 サーバー向けのバンドル済みプロバイダープラグインとして提供されています。- プロバイダー:
vllm - 認証: 任意(サーバー依存)
- デフォルトbase URL:
http://127.0.0.1:8000/v1
/v1/models が返すIDのいずれかに置き換えてください):
SGLang
SGLangは、高速なself-hosted OpenAI互換サーバー向けのバンドル済みプロバイダープラグインとして提供されています。- プロバイダー:
sglang - 認証: 任意(サーバー依存)
- デフォルトbase URL:
http://127.0.0.1:30000/v1
/v1/models が返すIDのいずれかに置き換えてください):
ローカルプロキシ(LM Studio、vLLM、LiteLLM など)
例(OpenAI互換):- カスタムプロバイダーでは、
reasoning、input、cost、contextWindow、maxTokensは任意です。 省略した場合、OpenClawは次をデフォルトにします:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- 推奨: プロキシ/モデルの上限に合う明示的な値を設定してください。
- 非ネイティブエンドポイント上の
api: "openai-completions"では(hostがapi.openai.comではない、空でないbaseUrl)、OpenClawは未対応のdeveloperロールによるプロバイダー400エラーを避けるため、compat.supportsDeveloperRole: falseを強制します。 - プロキシ型のOpenAI互換ルートでも、ネイティブOpenAI専用のリクエスト整形はスキップされます:
service_tierなし、Responsesstoreなし、prompt-cacheヒントなし、 OpenAI reasoning-compat payload shapingなし、非表示のOpenClaw attribution headerなし。 baseUrlが空または省略されている場合、OpenClawはデフォルトのOpenAI動作を維持します(これはapi.openai.comに解決されます)。- 安全のため、非ネイティブ
openai-completionsエンドポイントでは、明示的なcompat.supportsDeveloperRole: trueも引き続き上書きされます。
CLIの例
関連
- Models — モデル設定とエイリアス
- Model Failover — フォールバックチェーンと再試行動作
- Configuration Reference — モデル設定キー
- Providers — プロバイダーごとのセットアップガイド