モデルプロバイダー
このページではLLM/モデルプロバイダーを扱います(WhatsApp/Telegramのようなチャットチャネルではありません)。 モデル選択ルールについては、/concepts/modelsを参照してください。クイックルール
- モデル参照は
provider/modelを使います(例:opencode/claude-opus-4-6)。 agents.defaults.modelsを設定すると、それが許可リストになります。- CLIヘルパー:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。 - フォールバックのランタイムルール、クールダウンプローブ、セッションオーバーライドの永続化については、/concepts/model-failoverに記載されています。
models.providers.*.models[].contextWindowはネイティブなモデルメタデータです。models.providers.*.models[].contextTokensは実効ランタイム上限です。- Provider Plugin は
registerProvider({ catalog })を介してモデルカタログを注入できます。OpenClawはその出力をmodels.providersにマージしてからmodels.jsonを書き込みます。 - プロバイダーマニフェストでは
providerAuthEnvVarsとproviderAuthAliasesを宣言できます。これにより、汎用の環境変数ベース認証プローブやプロバイダーバリアントでPluginランタイムをロードする必要がなくなります。残っているコアの環境変数マップは、非Plugin/コアプロバイダー用と、AnthropicのAPIキー優先オンボーディングのようないくつかの汎用優先順位ケース用だけになりました。 - Provider Plugin は、
normalizeModelId、normalizeTransport、normalizeConfig、applyNativeStreamingUsageCompat、resolveConfigApiKey、resolveSyntheticAuth、shouldDeferSyntheticProfileAuth、resolveDynamicModel、prepareDynamicModel、normalizeResolvedModel、contributeResolvedModelCompat、capabilities、normalizeToolSchemas、inspectToolSchemas、resolveReasoningOutputMode、prepareExtraParams、createStreamFn、wrapStreamFn、resolveTransportTurnState、resolveWebSocketSessionPolicy、createEmbeddingProvider、formatApiKey、refreshOAuth、buildAuthDoctorHint、matchesContextOverflowError、classifyFailoverReason、isCacheTtlEligible、buildMissingAuthMessage、suppressBuiltInModel、augmentModelCatalog、isBinaryThinking、supportsXHighThinking、resolveDefaultThinkingLevel、applyConfigDefaults、isModernModelRef、prepareRuntimeAuth、resolveUsageAuth、fetchUsageSnapshot、onModelSelectedを通じて、プロバイダーのランタイム動作も所有できます。 - 注: プロバイダーランタイムの
capabilitiesは共有ランナーメタデータです(プロバイダーファミリー、transcript/toolingの癖、transport/cacheのヒント)。これは、Pluginが何を登録するか(テキスト推論、音声など)を説明する公開 capability モデルとは別物です。 - バンドル版の
codexプロバイダーは、バンドル版Codexエージェントハーネスと組みになっています。Codex所有のログイン、モデル検出、ネイティブなスレッド再開、アプリサーバー実行が必要な場合は、codex/gpt-*を使ってください。通常のopenai/gpt-*参照は引き続きOpenAIプロバイダーと通常のOpenClawプロバイダーtransportを使います。Codex専用デプロイでは、agents.defaults.embeddedHarness.fallback: "none"で自動PIフォールバックを無効化できます。詳しくはCodex Harnessを参照してください。
Plugin所有のプロバイダー動作
Provider Plugin は、OpenClawが汎用推論ループを維持したまま、プロバイダー固有ロジックの大半を所有できるようになりました。 典型的な分担:auth[].run/auth[].runNonInteractive: プロバイダーがopenclaw onboard、openclaw models auth、ヘッドレスセットアップ向けのオンボーディング/ログインフローを所有wizard.setup/wizard.modelPicker: プロバイダーが認証方式ラベル、レガシーエイリアス、オンボーディングの許可リストヒント、オンボーディング/モデルピッカー内のセットアップ項目を所有catalog: プロバイダーがmodels.providersに現れるnormalizeModelId: プロバイダーが、ルックアップや正規化の前にレガシー/プレビューのモデルIDを正規化normalizeTransport: プロバイダーが、汎用モデル組み立ての前にtransportファミリーのapi/baseUrlを正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際にtransportを変更するものが見つかるまで、他のhook対応Provider Plugin を確認しますnormalizeConfig: プロバイダーが、ランタイムで使う前にmodels.providers.<id>設定を正規化。OpenClawはまず一致したプロバイダーを確認し、その後、実際に設定を変更するものが見つかるまで、他のhook対応Provider Plugin を確認します。どのプロバイダーhookも設定を書き換えなかった場合、バンドルされているGoogleファミリーのヘルパーが引き続き対応するGoogleプロバイダー項目を正規化します。applyNativeStreamingUsageCompat: プロバイダーが、設定プロバイダー向けに、エンドポイント駆動のネイティブなストリーミング使用量互換リライトを適用resolveConfigApiKey: プロバイダーが、完全なランタイム認証ロードを強制せずに、設定プロバイダー向けの環境変数マーカー認証を解決。amazon-bedrockにはここに組み込みのAWS環境変数マーカーリゾルバーもありますが、Bedrockのランタイム認証自体はAWS SDKのデフォルトチェーンを使います。resolveSyntheticAuth: プロバイダーが、平文シークレットを永続化せずに、ローカル/セルフホストやその他の設定ベース認証の可用性を公開可能shouldDeferSyntheticProfileAuth: プロバイダーが、保存済みのsynthetic profileプレースホルダーを、環境変数/設定ベース認証より低い優先順位として扱うよう指定可能resolveDynamicModel: プロバイダーが、まだローカル静的カタログに存在しないモデルIDを受け入れるprepareDynamicModel: プロバイダーが、動的解決を再試行する前にメタデータ更新を必要とするnormalizeResolvedModel: プロバイダーが、transportまたはbase URLのリライトを必要とするcontributeResolvedModelCompat: プロバイダーが、他の互換transport経由で届いた場合でも、そのベンダーモデル向け互換フラグを提供するcapabilities: プロバイダーがtranscript/tooling/プロバイダーファミリーの癖を公開normalizeToolSchemas: プロバイダーが、埋め込みランナーが参照する前にツールスキーマを整形inspectToolSchemas: プロバイダーが、正規化後にtransport固有のスキーマ警告を提示resolveReasoningOutputMode: プロバイダーが、ネイティブまたはタグ付きのreasoning出力契約を選択prepareExtraParams: プロバイダーが、モデルごとのリクエストパラメータをデフォルト化または正規化createStreamFn: プロバイダーが、通常のストリーム経路を完全にカスタムなtransportに置き換えるwrapStreamFn: プロバイダーが、リクエストヘッダー/ボディ/モデル互換ラッパーを適用resolveTransportTurnState: プロバイダーが、ターンごとのネイティブtransportヘッダーまたはメタデータを提供resolveWebSocketSessionPolicy: プロバイダーが、ネイティブWebSocketセッションヘッダーまたはセッションクールダウンポリシーを提供createEmbeddingProvider: プロバイダーが、コアのembeddingスイッチボードではなくProvider Plugin に属するべきメモリembedding動作を所有formatApiKey: プロバイダーが、保存済み認証プロファイルをtransportが期待するランタイムapiKey文字列に整形refreshOAuth: 共有pi-aiリフレッシャーでは不十分な場合に、プロバイダーがOAuthリフレッシュを所有buildAuthDoctorHint: OAuthリフレッシュ失敗時に、プロバイダーが修復ガイダンスを追加matchesContextOverflowError: プロバイダーが、汎用ヒューリスティクスでは見落とすプロバイダー固有のコンテキストウィンドウ超過エラーを認識classifyFailoverReason: プロバイダーが、プロバイダー固有の生transport/APIエラーを、レート制限や過負荷などのフェイルオーバー理由にマップisCacheTtlEligible: プロバイダーが、どの上流モデルIDがプロンプトキャッシュTTLをサポートするかを判定buildMissingAuthMessage: プロバイダーが、汎用の認証ストアエラーをプロバイダー固有の復旧ヒントに置き換えるsuppressBuiltInModel: プロバイダーが、古い上流行を非表示にし、直接解決失敗時にベンダー所有のエラーを返せるaugmentModelCatalog: プロバイダーが、検出と設定マージの後にsynthetic/finalカタログ行を追加isBinaryThinking: プロバイダーが、二値のオン/オフthinking UXを所有supportsXHighThinking: プロバイダーが、選択したモデルでxhighを有効化resolveDefaultThinkingLevel: プロバイダーが、モデルファミリー向けのデフォルト/thinkポリシーを所有applyConfigDefaults: プロバイダーが、認証モード、環境変数、またはモデルファミリーに基づいて、設定具体化中にプロバイダー固有のグローバルデフォルトを適用isModernModelRef: プロバイダーが、live/smokeの優先モデル照合を所有prepareRuntimeAuth: プロバイダーが、設定済みクレデンシャルを短命のランタイムトークンに変換resolveUsageAuth: プロバイダーが、/usageおよび関連するステータス/レポート画面向けの使用量/クォータ認証情報を解決fetchUsageSnapshot: プロバイダーが、使用量エンドポイントの取得/解析を所有し、コアは引き続き要約シェルと整形を所有onModelSelected: プロバイダーが、テレメトリーやプロバイダー所有のセッション記録など、選択後の副作用を実行
anthropic: Claude 4.6の前方互換フォールバック、認証修復ヒント、使用量エンドポイント取得、cache-TTL/プロバイダーファミリーメタデータ、認証対応のグローバル設定デフォルトamazon-bedrock: Bedrock固有のスロットル/未準備エラー向けに、プロバイダー所有のコンテキスト超過判定とフェイルオーバー理由分類を提供し、さらにClaude専用のリプレイポリシーガード用に共有のanthropic-by-modelリプレイファミリーも提供anthropic-vertex: Anthropic-messageトラフィック向けのClaude専用リプレイポリシーガードopenrouter: モデルIDの透過処理、リクエストラッパー、プロバイダーcapabilityヒント、プロキシGeminiトラフィック上でのGemini thought-signatureサニタイズ、openrouter-thinkingストリームファミリーを通じたプロキシreasoning注入、ルーティングメタデータ転送、cache-TTLポリシーgithub-copilot: オンボーディング/デバイスログイン、前方互換モデルフォールバック、Claude-thinking transcriptヒント、ランタイムトークン交換、使用量エンドポイント取得openai: GPT-5.4の前方互換フォールバック、直接OpenAI transport正規化、Codex対応の認証欠落ヒント、Spark抑制、synthetic OpenAI/Codexカタログ行、thinking/live-modelポリシー、usage-tokenエイリアス正規化(input/outputおよびprompt/completionファミリー)、ネイティブOpenAI/Codexラッパー用の共有openai-responses-defaultsストリームファミリー、プロバイダーファミリーメタデータ、gpt-image-1向けのバンドル画像生成プロバイダー登録、sora-2向けのバンドル動画生成プロバイダー登録googleとgoogle-gemini-cli: Gemini 3.1の前方互換フォールバック、ネイティブGeminiリプレイ検証、ブートストラップリプレイサニタイズ、タグ付きreasoning出力モード、modern-modelマッチング、Gemini image-previewモデル向けのバンドル画像生成プロバイダー登録、Veoモデル向けのバンドル動画生成プロバイダー登録。Gemini CLI OAuthはさらに、認証プロファイルトークン整形、usage-token解析、使用量画面向けクォータエンドポイント取得も所有しますmoonshot: 共有transport、Plugin所有のthinkingペイロード正規化kilocode: 共有transport、Plugin所有のリクエストヘッダー、reasoningペイロード正規化、プロキシGemini thought-signatureサニタイズ、cache-TTLポリシーzai: GLM-5の前方互換フォールバック、tool_streamデフォルト、cache-TTLポリシー、binary-thinking/live-modelポリシー、使用量認証 + クォータ取得。未知のglm-5*IDは、バンドルされたglm-4.7テンプレートから合成されますxai: ネイティブResponses transport正規化、Grok高速バリアント向け/fastエイリアス書き換え、デフォルトtool_stream、xAI固有のtool-schema / reasoning-payloadクリーンアップ、grok-imagine-video向けのバンドル動画生成プロバイダー登録mistral: Plugin所有のcapabilityメタデータopencodeとopencode-go: Plugin所有のcapabilityメタデータ + プロキシGemini thought-signatureサニタイズalibaba:alibaba/wan2.6-t2vのような直接Wanモデル参照向けのPlugin所有動画生成カタログbyteplus: Plugin所有カタログ + Seedanceのtext-to-video/image-to-videoモデル向けバンドル動画生成プロバイダー登録fal: ホスト型サードパーティー動画モデル向けのバンドル動画生成プロバイダー登録、およびFLUX画像モデル向けのホスト型サードパーティー画像生成プロバイダー登録 + ホスト型サードパーティー動画モデル向けのバンドル動画生成プロバイダー登録cloudflare-ai-gateway、huggingface、kimi、nvidia、qianfan、stepfun、synthetic、venice、vercel-ai-gateway、volcengine: Plugin所有カタログのみqwen: テキストモデル向けPlugin所有カタログ + そのマルチモーダル画面向けの共有media-understandingおよび動画生成プロバイダー登録。Qwen動画生成は、wan2.6-t2vやwan2.7-r2vのようなバンドルWanモデルとともに、標準DashScope動画エンドポイントを使用しますrunway:gen4.5のようなネイティブRunwayタスクベースモデル向けのPlugin所有動画生成プロバイダー登録minimax: Plugin所有カタログ、Hailuo動画モデル向けのバンドル動画生成プロバイダー登録、image-01向けのバンドル画像生成プロバイダー登録、ハイブリッドAnthropic/OpenAIリプレイポリシー選択、使用量認証/スナップショットロジックtogether: Plugin所有カタログ + Wan動画モデル向けのバンドル動画生成プロバイダー登録xiaomi: Plugin所有カタログ + 使用量認証/スナップショットロジック
openai Plugin は現在、openaiとopenai-codexの両方のプロバイダーIDを所有しています。
これで、OpenClawの通常transportにまだ適合するプロバイダーをカバーしています。完全にカスタムなリクエスト実行子を必要とするプロバイダーは、別のより深い拡張サーフェスになります。
APIキーのローテーション
- 選択されたプロバイダー向けに、汎用的なプロバイダーローテーションをサポートします。
- 複数キーの設定方法:
OPENCLAW_LIVE_<PROVIDER>_KEY(単一のライブオーバーライド、最優先)<PROVIDER>_API_KEYS(カンマまたはセミコロン区切りの一覧)<PROVIDER>_API_KEY(プライマリキー)<PROVIDER>_API_KEY_*(番号付き一覧。例:<PROVIDER>_API_KEY_1)
- Googleプロバイダーでは、
GOOGLE_API_KEYもフォールバックとして含まれます。 - キー選択順は優先順位を保持しつつ、重複値を排除します。
- リクエストは、レート制限応答時にのみ次のキーで再試行されます(例:
429、rate_limit、quota、resource exhausted、Too many concurrent requests、ThrottlingException、concurrency limit reached、workers_ai ... quota limit exceeded、または定期的な使用量上限メッセージ)。 - レート制限以外の失敗は即座に失敗し、キーローテーションは試行されません。
- すべての候補キーが失敗した場合、最後の試行の最終エラーが返されます。
組み込みプロバイダー(pi-ai catalog)
OpenClawにはpi-ai catalogが同梱されています。これらのプロバイダーではmodels.providers設定は不要です。認証を設定してモデルを選ぶだけです。
OpenAI
- プロバイダー:
openai - 認証:
OPENAI_API_KEY - 任意のローテーション:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2、加えてOPENCLAW_LIVE_OPENAI_KEY(単一オーバーライド) - モデル例:
openai/gpt-5.4、openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - デフォルトtransportは
autoです(WebSocket優先、SSEフォールバック) - モデルごとの上書きは
agents.defaults.models["openai/<model>"].params.transportで行います("sse"、"websocket"、または"auto") - OpenAI Responses WebSocketウォームアップは、
params.openaiWsWarmup(true/false)でデフォルト有効です - OpenAI priority processingは、
agents.defaults.models["openai/<model>"].params.serviceTierで有効化できます /fastとparams.fastModeは、直接openai/*Responsesリクエストをapi.openai.com上のservice_tier=priorityにマップします- 共有の
/fastトグルではなく明示的なtierを使いたい場合は、params.serviceTierを使用してください - 隠しOpenClaw attributionヘッダー(
originator、version、User-Agent)は、api.openai.comへのネイティブOpenAIトラフィックにのみ適用され、汎用のOpenAI互換プロキシには適用されません - ネイティブOpenAIルートでは、Responsesの
store、プロンプトキャッシュヒント、OpenAI reasoning互換のペイロード整形も維持されます。プロキシルートでは維持されません openai/gpt-5.3-codex-sparkは、ライブOpenAI APIが拒否するため、OpenClawでは意図的に抑制されています。SparkはCodex専用として扱われます
Anthropic
- プロバイダー:
anthropic - 認証:
ANTHROPIC_API_KEY - 任意のローテーション:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2、加えてOPENCLAW_LIVE_ANTHROPIC_KEY(単一オーバーライド) - モデル例:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice apiKey - 直接の公開Anthropicリクエストは、共有の
/fastトグルとparams.fastModeもサポートします。これにはapi.anthropic.comへ送信されるAPIキー認証およびOAuth認証トラフィックが含まれます。OpenClawはこれをAnthropicのservice_tier(autovsstandard_only)にマップします - Anthropic注記: Anthropicスタッフから、OpenClawスタイルのClaude CLI利用は再び許可されていると伝えられているため、Anthropicが新しいポリシーを公開しない限り、OpenClawはClaude CLI再利用と
claude -p利用をこの統合向けに認可済みとして扱います。 - Anthropic setup-tokenも引き続きサポート対象のOpenClawトークン経路として利用可能ですが、OpenClawは現在、利用可能であればClaude CLI再利用と
claude -pを優先します。
OpenAI Code(Codex)
- プロバイダー:
openai-codex - 認証: OAuth(ChatGPT)
- モデル例:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexまたはopenclaw models auth login --provider openai-codex - デフォルトtransportは
autoです(WebSocket優先、SSEフォールバック) - モデルごとの上書きは
agents.defaults.models["openai-codex/<model>"].params.transportで行います("sse"、"websocket"、または"auto") params.serviceTierも、ネイティブCodex Responsesリクエスト(chatgpt.com/backend-api)で転送されます- 隠しOpenClaw attributionヘッダー(
originator、version、User-Agent)は、chatgpt.com/backend-apiへのネイティブCodexトラフィックにのみ付与され、汎用のOpenAI互換プロキシには付与されません - 直接
openai/*と同じ/fastトグルおよびparams.fastMode設定を共有し、OpenClawはこれをservice_tier=priorityにマップします openai-codex/gpt-5.3-codex-sparkは、Codex OAuth catalogが公開している場合は引き続き利用可能です。利用権限に依存しますopenai-codex/gpt-5.4は、ネイティブのcontextWindow = 1050000とデフォルトのランタイムcontextTokens = 272000を維持します。ランタイム上限はmodels.providers.openai-codex.models[].contextTokensで上書きできます- ポリシー注記: OpenAI Codex OAuthは、OpenClawのような外部ツール/ワークフロー向けに明示的にサポートされています
その他のサブスクリプション型ホストオプション
- Qwen Cloud: Qwen Cloudプロバイダーサーフェス + Alibaba DashScopeおよびCoding Planエンドポイントマッピング
- MiniMax: MiniMax Coding Plan OAuthまたはAPIキーアクセス
- GLM Models: Z.AI Coding Planまたは汎用APIエンドポイント
OpenCode
- 認証:
OPENCODE_API_KEY(またはOPENCODE_ZEN_API_KEY) - Zenランタイムプロバイダー:
opencode - Goランタイムプロバイダー:
opencode-go - モデル例:
opencode/claude-opus-4-6、opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenまたはopenclaw onboard --auth-choice opencode-go
Google Gemini(APIキー)
- プロバイダー:
google - 認証:
GEMINI_API_KEY - 任意のローテーション:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEYフォールバック、加えてOPENCLAW_LIVE_GEMINI_KEY(単一オーバーライド) - モデル例:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 互換性:
google/gemini-3.1-flash-previewを使う旧OpenClaw設定は、google/gemini-3-flash-previewに正規化されます - CLI:
openclaw onboard --auth-choice gemini-api-key - 直接Gemini実行では、
agents.defaults.models["google/<model>"].params.cachedContent(または旧cached_content)も受け付け、プロバイダーネイティブなcachedContents/...ハンドルを転送します。GeminiキャッシュヒットはOpenClawのcacheReadとして表示されます
Google VertexとGemini CLI
- プロバイダー:
google-vertex、google-gemini-cli - 認証: Vertexはgcloud ADCを使用し、Gemini CLIは独自のOAuthフローを使用します
- 注意: OpenClawでのGemini CLI OAuthは非公式な統合です。サードパーティークライアントの使用後にGoogleアカウント制限がかかったという報告があります。利用する場合はGoogleの利用規約を確認し、重要でないアカウントを使ってください。
- Gemini CLI OAuthは、バンドル版
googlePlugin の一部として提供されます。- まずGemini CLIをインストールします:
brew install gemini-cli- または
npm install -g @google/gemini-cli
- 有効化:
openclaw plugins enable google - ログイン:
openclaw models auth login --provider google-gemini-cli --set-default - デフォルトモデル:
google-gemini-cli/gemini-3-flash-preview - 注:
openclaw.jsonにclient idやsecretを貼り付けることはありません。CLIログインフローは、トークンをGatewayホスト上の認証プロファイルに保存します。 - ログイン後にリクエストが失敗する場合は、Gatewayホストで
GOOGLE_CLOUD_PROJECTまたはGOOGLE_CLOUD_PROJECT_IDを設定してください。 - Gemini CLIのJSON応答は
responseから解析され、使用量はstatsにフォールバックし、stats.cachedはOpenClawのcacheReadに正規化されます。
- まずGemini CLIをインストールします:
Z.AI(GLM)
- プロバイダー:
zai - 認証:
ZAI_API_KEY - モデル例:
zai/glm-5.1 - CLI:
openclaw onboard --auth-choice zai-api-key- エイリアス:
z.ai/*とz-ai/*はzai/*に正規化されます zai-api-keyは一致するZ.AIエンドポイントを自動検出します。zai-coding-global、zai-coding-cn、zai-global、zai-cnは特定のサーフェスを強制します
- エイリアス:
Vercel AI Gateway
- プロバイダー:
vercel-ai-gateway - 認証:
AI_GATEWAY_API_KEY - モデル例:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- プロバイダー:
kilocode - 認証:
KILOCODE_API_KEY - モデル例:
kilocode/kilo/auto - CLI:
openclaw onboard --auth-choice kilocode-api-key - ベースURL:
https://api.kilo.ai/api/gateway/ - 静的フォールバックcatalogには
kilocode/kilo/autoが同梱されます。ライブのhttps://api.kilo.ai/api/gateway/models検出により、ランタイムcatalogがさらに拡張される場合があります。 kilocode/kilo/autoの背後にある正確な上流ルーティングはKilo Gatewayが所有しており、OpenClawにハードコードされていません。
その他のバンドル版Provider Plugin
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - モデル例:
openrouter/auto - OpenClawは、リクエストが実際に
openrouter.aiを対象としている場合にのみ、OpenRouterの文書化されたapp-attributionヘッダーを適用します - OpenRouter固有のAnthropic
cache_controlマーカーも同様に、任意のプロキシURLではなく、検証済みのOpenRouterルートにのみ適用されます - OpenRouterは引き続きプロキシ型のOpenAI互換パス上にあるため、ネイティブOpenAI専用のリクエスト整形(
serviceTier、Responsesのstore、プロンプトキャッシュヒント、OpenAI reasoning互換ペイロード)は転送されません - GeminiベースのOpenRouter参照では、プロキシGemini thought-signatureサニタイズのみが維持されます。ネイティブGeminiのリプレイ検証とブートストラップ書き換えは無効のままです
- Kilo Gateway:
kilocode(KILOCODE_API_KEY) - モデル例:
kilocode/kilo/auto - GeminiベースのKilo参照では、同じプロキシGemini thought-signatureサニタイズ経路が維持されます。
kilocode/kilo/autoおよびその他のプロキシreasoning非対応ヒントでは、プロキシreasoning注入はスキップされます - MiniMax:
minimax(APIキー)とminimax-portal(OAuth) - 認証:
minimaxにはMINIMAX_API_KEY、minimax-portalにはMINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEY - モデル例:
minimax/MiniMax-M2.7またはminimax-portal/MiniMax-M2.7 - MiniMaxのオンボーディング/APIキー設定では、
input: ["text", "image"]を持つ明示的なM2.7モデル定義を書き込みます。バンドル版プロバイダーcatalogでは、そのプロバイダー設定が具体化されるまで、チャット参照はテキスト専用のままです - Moonshot:
moonshot(MOONSHOT_API_KEY) - モデル例:
moonshot/kimi-k2.5 - Kimi Coding:
kimi(KIMI_API_KEYまたはKIMICODE_API_KEY) - モデル例:
kimi/kimi-code - Qianfan:
qianfan(QIANFAN_API_KEY) - モデル例:
qianfan/deepseek-v3.2 - Qwen Cloud:
qwen(QWEN_API_KEY、MODELSTUDIO_API_KEY、またはDASHSCOPE_API_KEY) - モデル例:
qwen/qwen3.5-plus - NVIDIA:
nvidia(NVIDIA_API_KEY) - モデル例:
nvidia/nvidia/llama-3.1-nemotron-70b-instruct - StepFun:
stepfun/stepfun-plan(STEPFUN_API_KEY) - モデル例:
stepfun/step-3.5-flash、stepfun-plan/step-3.5-flash-2603 - Together:
together(TOGETHER_API_KEY) - モデル例:
together/moonshotai/Kimi-K2.5 - Venice:
venice(VENICE_API_KEY) - Xiaomi:
xiaomi(XIAOMI_API_KEY) - モデル例:
xiaomi/mimo-v2-flash - Vercel AI Gateway:
vercel-ai-gateway(AI_GATEWAY_API_KEY) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENまたはHF_TOKEN) - Cloudflare AI Gateway:
cloudflare-ai-gateway(CLOUDFLARE_AI_GATEWAY_API_KEY) - Volcengine:
volcengine(VOLCANO_ENGINE_API_KEY) - モデル例:
volcengine-plan/ark-code-latest - BytePlus:
byteplus(BYTEPLUS_API_KEY) - モデル例:
byteplus-plan/ark-code-latest - xAI:
xai(XAI_API_KEY)- ネイティブのバンドル版xAIリクエストはxAI Responsesパスを使用します
/fastまたはparams.fastMode: trueは、grok-3、grok-3-mini、grok-4、grok-4-0709をそれぞれの*-fastバリアントに書き換えますtool_streamはデフォルトで有効です。無効にするには、agents.defaults.models["xai/<model>"].params.tool_streamをfalseに設定してください
- Mistral:
mistral(MISTRAL_API_KEY) - モデル例:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Cerebras上のGLMモデルは
zai-glm-4.7およびzai-glm-4.6というIDを使用します。 - OpenAI互換ベースURL:
https://api.cerebras.ai/v1。
- Cerebras上のGLMモデルは
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inferenceのモデル例:
huggingface/deepseek-ai/DeepSeek-R1。CLI:openclaw onboard --auth-choice huggingface-api-key。Hugging Face (Inference)を参照してください。
models.providers経由のプロバイダー(カスタム/ベースURL)
models.providers(またはmodels.json)を使うと、カスタムプロバイダーやOpenAI/Anthropic互換プロキシを追加できます。
以下のバンドル版Provider Plugin の多くは、すでにデフォルトcatalogを公開しています。
デフォルトのベースURL、ヘッダー、またはモデル一覧を上書きしたい場合にのみ、明示的なmodels.providers.<id>項目を使用してください。
Moonshot AI(Kimi)
Moonshotはバンドル版Provider Plugin として提供されます。通常は組み込みプロバイダーを使い、ベースURLまたはモデルメタデータを上書きする必要がある場合にのみ、明示的なmodels.providers.moonshot項目を追加してください。
- プロバイダー:
moonshot - 認証:
MOONSHOT_API_KEY - モデル例:
moonshot/kimi-k2.5 - CLI:
openclaw onboard --auth-choice moonshot-api-keyまたはopenclaw onboard --auth-choice moonshot-api-key-cn
moonshot/kimi-k2.5moonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbomoonshot/kimi-k2-turbo
Kimi Coding
Kimi CodingはMoonshot AIのAnthropic互換エンドポイントを使用します。- プロバイダー:
kimi - 認証:
KIMI_API_KEY - モデル例:
kimi/kimi-code
kimi/k2p5も互換モデルIDとして引き続き受け付けられます。
Volcano Engine(Doubao)
Volcano Engine(火山引擎)は、中国でDoubaoやその他のモデルへのアクセスを提供します。- プロバイダー:
volcengine(coding:volcengine-plan) - 認証:
VOLCANO_ENGINE_API_KEY - モデル例:
volcengine-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice volcengine-api-key
volcengine/*catalogも同時に登録されます。
オンボーディング/モデル設定ピッカーでは、Volcengineの認証選択はvolcengine/*行とvolcengine-plan/*行の両方を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のプロバイダースコープ付きピッカーを表示する代わりに、フィルターなしcatalogへフォールバックします。
利用可能なモデル:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus(International)
BytePlus ARKは、国際ユーザー向けにVolcano Engineと同じモデルへのアクセスを提供します。- プロバイダー:
byteplus(coding:byteplus-plan) - 認証:
BYTEPLUS_API_KEY - モデル例:
byteplus-plan/ark-code-latest - CLI:
openclaw onboard --auth-choice byteplus-api-key
byteplus/*catalogも同時に登録されます。
オンボーディング/モデル設定ピッカーでは、BytePlusの認証選択はbyteplus/*行とbyteplus-plan/*行の両方を優先します。これらのモデルがまだ読み込まれていない場合、OpenClawは空のプロバイダースコープ付きピッカーを表示する代わりに、フィルターなしcatalogへフォールバックします。
利用可能なモデル:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Syntheticは、syntheticプロバイダーの背後でAnthropic互換モデルを提供します。
- プロバイダー:
synthetic - 認証:
SYNTHETIC_API_KEY - モデル例:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMaxはカスタムエンドポイントを使用するため、models.providers経由で設定します。
- MiniMax OAuth(Global):
--auth-choice minimax-global-oauth - MiniMax OAuth(CN):
--auth-choice minimax-cn-oauth - MiniMax APIキー(Global):
--auth-choice minimax-global-api - MiniMax APIキー(CN):
--auth-choice minimax-cn-api - 認証:
minimaxにはMINIMAX_API_KEY、minimax-portalにはMINIMAX_OAUTH_TOKENまたはMINIMAX_API_KEY
/fast onはMiniMax-M2.7をMiniMax-M2.7-highspeedに書き換えます。
Plugin所有のcapability分割:
- テキスト/チャットのデフォルトは
minimax/MiniMax-M2.7のままです - 画像生成は
minimax/image-01またはminimax-portal/image-01です - 画像理解は、両方のMiniMax認証パスでPlugin所有の
MiniMax-VL-01です - Web検索は引き続きプロバイダーID
minimaxに残ります
LM Studio
LM Studioは、ネイティブAPIを使用するバンドル版Provider Plugin として提供されます。- プロバイダー:
lmstudio - 認証:
LM_API_TOKEN - デフォルト推論ベースURL:
http://localhost:1234/v1
http://localhost:1234/api/v1/modelsが返すIDの1つに置き換えてください):
/api/v1/modelsと/api/v1/models/loadを使用し、デフォルトでは推論に/v1/chat/completionsを使用します。セットアップとトラブルシューティングについては/providers/lmstudioを参照してください。
Ollama
Ollamaはバンドル版Provider Plugin として提供され、OllamaネイティブAPIを使用します。- プロバイダー:
ollama - 認証: 不要(ローカルサーバー)
- モデル例:
ollama/llama3.3 - インストール: https://ollama.com/download
OLLAMA_API_KEYでオプトインすると、Ollamaはローカルのhttp://127.0.0.1:11434で検出され、バンドル版Provider Plugin がOllamaをopenclaw onboardとモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については/providers/ollamaを参照してください。
vLLM
vLLMは、ローカル/セルフホストのOpenAI互換サーバー向けバンドル版Provider Plugin として提供されます。- プロバイダー:
vllm - 認証: 任意(サーバーに依存)
- デフォルトベースURL:
http://127.0.0.1:8000/v1
/v1/modelsが返すIDの1つに置き換えてください):
SGLang
SGLangは、高速なセルフホストOpenAI互換サーバー向けバンドル版Provider Plugin として提供されます。- プロバイダー:
sglang - 認証: 任意(サーバーに依存)
- デフォルトベースURL:
http://127.0.0.1:30000/v1
/v1/modelsが返すIDの1つに置き換えてください):
ローカルプロキシ(LM Studio、vLLM、LiteLLMなど)
例(OpenAI互換):- カスタムプロバイダーでは、
reasoning、input、cost、contextWindow、maxTokensは任意です。 省略した場合、OpenClawのデフォルトは次のとおりです:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- 推奨: プロキシ/モデルの上限に一致する明示的な値を設定してください。
- ネイティブでないエンドポイント上の
api: "openai-completions"では(ホストがapi.openai.comではない空でないbaseUrl)、OpenClawは、未対応のdeveloperロールによるプロバイダー400エラーを避けるため、compat.supportsDeveloperRole: falseを強制します。 - プロキシ型のOpenAI互換ルートでも、ネイティブOpenAI専用のリクエスト整形はスキップされます。
service_tier、Responsesのstore、プロンプトキャッシュヒント、OpenAI reasoning互換ペイロード整形、隠しOpenClaw attributionヘッダーはいずれも送信されません。 baseUrlが空または省略されている場合、OpenClawはデフォルトのOpenAI動作(api.openai.comに解決)を維持します。- 安全のため、ネイティブでない
openai-completionsエンドポイントでは、明示的なcompat.supportsDeveloperRole: trueも引き続き上書きされます。
CLIの例
関連
- Models — モデル設定とエイリアス
- Model Failover — フォールバックチェーンと再試行動作
- Configuration Reference — モデル設定キー
- Providers — プロバイダーごとのセットアップガイド