Skip to main content
OpenClaw 内置了一个 Amazon Bedrock Mantle 提供商,用于连接 Mantle 的兼容 OpenAI 端点。Mantle 通过一个标准的 /v1/chat/completions 接口并依托 Bedrock 基础设施托管开源和 第三方模型(GPT-OSS、Qwen、Kimi、GLM 等)。
属性
提供商 IDamazon-bedrock-mantle
APIopenai-completions(兼容 OpenAI)或 anthropic-messages(Anthropic Messages 路由)
身份验证显式 AWS_BEARER_TOKEN_BEDROCK 或通过 IAM 凭证链生成 bearer token
默认区域us-east-1(可通过 AWS_REGIONAWS_DEFAULT_REGION 覆盖)

入门指南

选择你偏好的身份验证方式,并按照设置步骤操作。
最适合: 已经拥有 Mantle bearer token 的环境。
1

在 gateway 主机上设置 bearer token

export AWS_BEARER_TOKEN_BEDROCK="..."
也可以选择设置区域(默认是 us-east-1):
export AWS_REGION="us-west-2"
2

验证模型已被发现

openclaw models list
已发现的模型会出现在 amazon-bedrock-mantle 提供商下。除非你想覆盖默认值,否则无需 额外配置。

自动模型发现

设置了 AWS_BEARER_TOKEN_BEDROCK 时,OpenClaw 会直接使用它。否则, OpenClaw 会尝试从 AWS 默认 凭证链生成 Mantle bearer token。然后它会通过查询该 区域的 /v1/models 端点来发现可用的 Mantle 模型。
行为详情
发现缓存结果缓存 1 小时
IAM 令牌刷新每小时一次
该 bearer token 与标准 Amazon Bedrock 提供商使用的 AWS_BEARER_TOKEN_BEDROCK 是同一个。

支持的区域

us-east-1us-east-2us-west-2ap-northeast-1ap-south-1ap-southeast-3eu-central-1eu-west-1eu-west-2eu-south-1eu-north-1sa-east-1

手动配置

如果你更倾向于显式配置而不是自动发现:
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

高级配置

推理支持会根据模型 ID 中是否包含诸如 thinkingreasonergpt-oss-120b 之类的模式来推断。OpenClaw 会在发现阶段自动为匹配的模型设置 reasoning: true
如果 Mantle 端点不可用或未返回任何模型,该提供商会被 静默跳过。OpenClaw 不会报错;其他已配置提供商 仍会正常工作。
Mantle 还暴露了一个 Anthropic Messages 路由,可通过相同的 bearer 身份验证流式路径承载 Claude 模型。Claude Opus 4.7(amazon-bedrock-mantle/claude-opus-4.7)可以通过该路由调用,并由提供商自有流式传输支持,因此 AWS bearer token 不会被当作 Anthropic API 密钥处理。当你在 Mantle 提供商上固定一个 Anthropic Messages 模型时,OpenClaw 会对此模型使用 anthropic-messages API 接口,而不是 openai-completions。身份验证仍然来自 AWS_BEARER_TOKEN_BEDROCK(或通过 IAM 生成的 bearer token)。
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        models: [
          {
            id: "claude-opus-4.7",
            name: "Claude Opus 4.7",
            api: "anthropic-messages",
            reasoning: true,
            input: ["text", "image"],
            contextWindow: 1000000,
            maxTokens: 32000,
          },
        ],
      },
    },
  },
}
Bedrock Mantle 与标准 Amazon Bedrock 提供商是分开的。Mantle 使用兼容 OpenAI 的 /v1 接口,而标准 Bedrock 提供商使用 原生 Bedrock API。当存在时,这两个提供商共享同一个 AWS_BEARER_TOKEN_BEDROCK 凭证。

相关

Amazon Bedrock

Anthropic Claude、Titan 及其他模型的原生 Bedrock 提供商。

模型选择

如何选择提供商、模型引用和故障切换行为。

OAuth 和身份验证

身份验证细节和凭证复用规则。

故障排除

常见问题及其解决方法。