Amazon Bedrock Mantle
OpenClaw inclut un provider Amazon Bedrock Mantle intégré qui se connecte au point de terminaison Mantle compatible OpenAI. Mantle héberge des modèles open source et tiers (GPT-OSS, Qwen, Kimi, GLM, et similaires) via une surface standard/v1/chat/completions reposant sur l’infrastructure Bedrock.
Ce que OpenClaw prend en charge
- Provider :
amazon-bedrock-mantle - API :
openai-completions(compatible OpenAI) - Authentification : jeton bearer via
AWS_BEARER_TOKEN_BEDROCK - Région :
AWS_REGIONouAWS_DEFAULT_REGION(par défaut :us-east-1)
Découverte automatique des modèles
LorsqueAWS_BEARER_TOKEN_BEDROCK est défini, OpenClaw découvre automatiquement
les modèles Mantle disponibles en interrogeant le point de terminaison régional /v1/models.
Les résultats de la découverte sont mis en cache pendant 1 heure.
Régions prises en charge : us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Définissez le jeton bearer sur l’hôte gateway :
- Vérifiez que les modèles sont découverts :
amazon-bedrock-mantle. Aucune
configuration supplémentaire n’est requise, sauf si vous souhaitez remplacer les valeurs par défaut.
Configuration manuelle
Si vous préférez une configuration explicite plutôt que la découverte automatique :Remarques
- Mantle exige actuellement un jeton bearer. De simples identifiants IAM (rôles d’instance, SSO, clés d’accès) ne suffisent pas sans jeton.
- Le jeton bearer est le même
AWS_BEARER_TOKEN_BEDROCKque celui utilisé par le provider standard Amazon Bedrock. - La prise en charge du raisonnement est déduite à partir des ID de modèle contenant des motifs comme
thinking,reasonerougpt-oss-120b. - Si le point de terminaison Mantle n’est pas disponible ou ne renvoie aucun modèle, le provider est ignoré silencieusement.