Amazon Bedrock Mantle
OpenClaw incluye un proveedor integrado de Amazon Bedrock Mantle que se conecta al endpoint compatible con OpenAI de Mantle. Mantle aloja modelos de código abierto y de terceros (GPT-OSS, Qwen, Kimi, GLM y similares) mediante una superficie estándar/v1/chat/completions respaldada por infraestructura Bedrock.
Qué admite OpenClaw
- Proveedor:
amazon-bedrock-mantle - API:
openai-completions(compatible con OpenAI) - Autenticación: token bearer mediante
AWS_BEARER_TOKEN_BEDROCK - Región:
AWS_REGIONoAWS_DEFAULT_REGION(predeterminado:us-east-1)
Descubrimiento automático de modelos
CuandoAWS_BEARER_TOKEN_BEDROCK está definido, OpenClaw descubre automáticamente
los modelos Mantle disponibles consultando el endpoint regional /v1/models.
Los resultados del descubrimiento se almacenan en caché durante 1 hora.
Regiones compatibles: us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Establece el token bearer en el host del gateway:
- Verifica que se descubren los modelos:
amazon-bedrock-mantle. No
se requiere configuración adicional a menos que quieras anular los valores predeterminados.
Configuración manual
Si prefieres una configuración explícita en lugar del descubrimiento automático:Notas
- Mantle requiere hoy un token bearer. Las credenciales IAM simples (roles de instancia, SSO, claves de acceso) no son suficientes sin un token.
- El token bearer es el mismo
AWS_BEARER_TOKEN_BEDROCKusado por el proveedor estándar Amazon Bedrock. - La compatibilidad con razonamiento se infiere a partir de ids de modelo que contienen patrones como
thinking,reasonerogpt-oss-120b. - Si el endpoint de Mantle no está disponible o no devuelve modelos, el proveedor se omite silenciosamente.