メインコンテンツへスキップ

Amazon Bedrock Mantle

OpenClawには、MantleのOpenAI互換エンドポイントへ接続する、バンドル済みのAmazon Bedrock Mantleプロバイダーが含まれています。Mantleは、Bedrockインフラを基盤とする標準的な/v1/chat/completionsサーフェスを通じて、オープンソースおよびサードパーティモデル(GPT-OSS、Qwen、Kimi、GLMなど)をホストします。

OpenClawがサポートする内容

  • プロバイダー: amazon-bedrock-mantle
  • API: openai-completions(OpenAI互換)
  • 認証: AWS_BEARER_TOKEN_BEDROCKによるbearer token
  • リージョン: AWS_REGIONまたはAWS_DEFAULT_REGION(デフォルト: us-east-1

自動モデル検出

AWS_BEARER_TOKEN_BEDROCKが設定されている場合、OpenClawは、そのリージョンの/v1/modelsエンドポイントへクエリを送ることで、利用可能なMantleモデルを自動検出します。検出結果は1時間キャッシュされます。 サポートされるリージョン: us-east-1us-east-2us-west-2ap-northeast-1ap-south-1ap-southeast-3eu-central-1eu-west-1eu-west-2eu-south-1eu-north-1sa-east-1

オンボーディング

  1. gateway host上でbearer tokenを設定します:
export AWS_BEARER_TOKEN_BEDROCK="..."
# 任意(デフォルトはus-east-1):
export AWS_REGION="us-west-2"
  1. モデルが検出されることを確認します:
openclaw models list
検出されたモデルはamazon-bedrock-mantleプロバイダー配下に表示されます。デフォルトを上書きしたい場合を除き、追加設定は不要です。

手動設定

自動検出ではなく明示的な設定を使いたい場合:
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

注記

  • Mantleは現時点でbearer tokenを必要とします。トークンなしの通常のIAM認証情報(instance roles、SSO、access keys)だけでは不十分です。
  • このbearer tokenは、標準のAmazon Bedrockプロバイダーで使用するAWS_BEARER_TOKEN_BEDROCKと同じです。
  • reasoningサポートは、thinkingreasonergpt-oss-120bのようなパターンを含むモデルIDから推測されます。
  • Mantleエンドポイントが利用できない場合、またはモデルを返さない場合、そのプロバイダーは黙ってスキップされます。