Amazon Bedrock Mantle
OpenClawには、MantleのOpenAI互換エンドポイントへ接続する、バンドル済みのAmazon Bedrock Mantleプロバイダーが含まれています。Mantleは、Bedrockインフラを基盤とする標準的な/v1/chat/completionsサーフェスを通じて、オープンソースおよびサードパーティモデル(GPT-OSS、Qwen、Kimi、GLMなど)をホストします。
OpenClawがサポートする内容
- プロバイダー:
amazon-bedrock-mantle - API:
openai-completions(OpenAI互換) - 認証:
AWS_BEARER_TOKEN_BEDROCKによるbearer token - リージョン:
AWS_REGIONまたはAWS_DEFAULT_REGION(デフォルト:us-east-1)
自動モデル検出
AWS_BEARER_TOKEN_BEDROCKが設定されている場合、OpenClawは、そのリージョンの/v1/modelsエンドポイントへクエリを送ることで、利用可能なMantleモデルを自動検出します。検出結果は1時間キャッシュされます。
サポートされるリージョン: us-east-1、us-east-2、us-west-2、ap-northeast-1、
ap-south-1、ap-southeast-3、eu-central-1、eu-west-1、eu-west-2、
eu-south-1、eu-north-1、sa-east-1。
オンボーディング
- gateway host上でbearer tokenを設定します:
- モデルが検出されることを確認します:
amazon-bedrock-mantleプロバイダー配下に表示されます。デフォルトを上書きしたい場合を除き、追加設定は不要です。
手動設定
自動検出ではなく明示的な設定を使いたい場合:注記
- Mantleは現時点でbearer tokenを必要とします。トークンなしの通常のIAM認証情報(instance roles、SSO、access keys)だけでは不十分です。
- このbearer tokenは、標準のAmazon Bedrockプロバイダーで使用する
AWS_BEARER_TOKEN_BEDROCKと同じです。 - reasoningサポートは、
thinking、reasoner、gpt-oss-120bのようなパターンを含むモデルIDから推測されます。 - Mantleエンドポイントが利用できない場合、またはモデルを返さない場合、そのプロバイダーは黙ってスキップされます。