Amazon Bedrock Mantle
OpenClaw include un provider Amazon Bedrock Mantle integrato che si connette all’endpoint Mantle compatibile con OpenAI. Mantle ospita modelli open source e di terze parti (GPT-OSS, Qwen, Kimi, GLM e simili) tramite una superficie standard/v1/chat/completions supportata dall’infrastruttura Bedrock.
Cosa supporta OpenClaw
- Provider:
amazon-bedrock-mantle - API:
openai-completions(compatibile con OpenAI) - Autenticazione: bearer token tramite
AWS_BEARER_TOKEN_BEDROCK - Regione:
AWS_REGIONoAWS_DEFAULT_REGION(predefinita:us-east-1)
Rilevamento automatico dei modelli
QuandoAWS_BEARER_TOKEN_BEDROCK è impostato, OpenClaw rileva automaticamente
i modelli Mantle disponibili interrogando l’endpoint /v1/models della regione.
I risultati del rilevamento vengono memorizzati nella cache per 1 ora.
Regioni supportate: us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Imposta il bearer token sull’host del gateway:
- Verifica che i modelli vengano rilevati:
amazon-bedrock-mantle. Non è
richiesta alcuna configurazione aggiuntiva a meno che tu non voglia sovrascrivere i valori predefiniti.
Configurazione manuale
Se preferisci una configurazione esplicita invece del rilevamento automatico:Note
- Mantle oggi richiede un bearer token. Le semplici credenziali IAM (ruoli dell’istanza, SSO, chiavi di accesso) non sono sufficienti senza un token.
- Il bearer token è lo stesso
AWS_BEARER_TOKEN_BEDROCKusato dal provider standard Amazon Bedrock. - Il supporto al reasoning viene dedotto dagli ID modello che contengono pattern come
thinking,reasonerogpt-oss-120b. - Se l’endpoint Mantle non è disponibile o non restituisce modelli, il provider viene saltato silenziosamente.