/v1/chat/completions 接口并依托 Bedrock 基础设施托管开源和
第三方模型(GPT-OSS、Qwen、Kimi、GLM 等)。
| 属性 | 值 |
|---|---|
| 提供商 ID | amazon-bedrock-mantle |
| API | openai-completions(兼容 OpenAI)或 anthropic-messages(Anthropic Messages 路由) |
| 身份验证 | 显式 AWS_BEARER_TOKEN_BEDROCK 或通过 IAM 凭证链生成 bearer token |
| 默认区域 | us-east-1(可通过 AWS_REGION 或 AWS_DEFAULT_REGION 覆盖) |
入门指南
选择你偏好的身份验证方式,并按照设置步骤操作。- 显式 bearer token
- IAM 凭证
自动模型发现
设置了AWS_BEARER_TOKEN_BEDROCK 时,OpenClaw 会直接使用它。否则,
OpenClaw 会尝试从 AWS 默认
凭证链生成 Mantle bearer token。然后它会通过查询该
区域的 /v1/models 端点来发现可用的 Mantle 模型。
| 行为 | 详情 |
|---|---|
| 发现缓存 | 结果缓存 1 小时 |
| IAM 令牌刷新 | 每小时一次 |
该 bearer token 与标准 Amazon Bedrock 提供商使用的
AWS_BEARER_TOKEN_BEDROCK 是同一个。支持的区域
us-east-1、us-east-2、us-west-2、ap-northeast-1、
ap-south-1、ap-southeast-3、eu-central-1、eu-west-1、eu-west-2、
eu-south-1、eu-north-1、sa-east-1。
手动配置
如果你更倾向于显式配置而不是自动发现:高级配置
推理支持
推理支持
推理支持会根据模型 ID 中是否包含诸如
thinking、reasoner 或 gpt-oss-120b 之类的模式来推断。OpenClaw 会在发现阶段自动为匹配的模型设置 reasoning: true。端点不可用
端点不可用
如果 Mantle 端点不可用或未返回任何模型,该提供商会被
静默跳过。OpenClaw 不会报错;其他已配置提供商
仍会正常工作。
通过 Anthropic Messages 路由使用 Claude Opus 4.7
通过 Anthropic Messages 路由使用 Claude Opus 4.7
Mantle 还暴露了一个 Anthropic Messages 路由,可通过相同的 bearer 身份验证流式路径承载 Claude 模型。Claude Opus 4.7(
amazon-bedrock-mantle/claude-opus-4.7)可以通过该路由调用,并由提供商自有流式传输支持,因此 AWS bearer token 不会被当作 Anthropic API 密钥处理。当你在 Mantle 提供商上固定一个 Anthropic Messages 模型时,OpenClaw 会对此模型使用 anthropic-messages API 接口,而不是 openai-completions。身份验证仍然来自 AWS_BEARER_TOKEN_BEDROCK(或通过 IAM 生成的 bearer token)。与 Amazon Bedrock 提供商的关系
与 Amazon Bedrock 提供商的关系
Bedrock Mantle 与标准
Amazon Bedrock 提供商是分开的。Mantle 使用兼容 OpenAI 的
/v1 接口,而标准 Bedrock 提供商使用
原生 Bedrock API。当存在时,这两个提供商共享同一个 AWS_BEARER_TOKEN_BEDROCK 凭证。相关
Amazon Bedrock
Anthropic Claude、Titan 及其他模型的原生 Bedrock 提供商。
模型选择
如何选择提供商、模型引用和故障切换行为。
OAuth 和身份验证
身份验证细节和凭证复用规则。
故障排除
常见问题及其解决方法。