Amazon Bedrock Mantle
O OpenClaw inclui um provedor empacotado Amazon Bedrock Mantle que se conecta ao endpoint compatível com OpenAI do Mantle. O Mantle hospeda modelos de código aberto e de terceiros (GPT-OSS, Qwen, Kimi, GLM e similares) por meio de uma superfície padrão/v1/chat/completions sustentada pela infraestrutura do Bedrock.
O que o OpenClaw oferece
- Provedor:
amazon-bedrock-mantle - API:
openai-completions(compatível com OpenAI) - Autenticação: bearer token via
AWS_BEARER_TOKEN_BEDROCK - Região:
AWS_REGIONouAWS_DEFAULT_REGION(padrão:us-east-1)
Descoberta automática de modelos
QuandoAWS_BEARER_TOKEN_BEDROCK está definido, o OpenClaw descobre automaticamente
os modelos Mantle disponíveis consultando o endpoint regional /v1/models.
Os resultados da descoberta ficam em cache por 1 hora.
Regiões com suporte: us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Defina o bearer token no host do gateway:
- Verifique se os modelos foram descobertos:
amazon-bedrock-mantle. Nenhuma
configuração adicional é necessária, a menos que você queira substituir os padrões.
Configuração manual
Se você preferir uma configuração explícita em vez de descoberta automática:Observações
- O Mantle atualmente exige um bearer token. Credenciais IAM simples (funções de instância, SSO, chaves de acesso) não são suficientes sem um token.
- O bearer token é o mesmo
AWS_BEARER_TOKEN_BEDROCKusado pelo provedor padrão Amazon Bedrock. - O suporte a raciocínio é inferido a partir de ids de modelo que contêm padrões como
thinking,reasonerougpt-oss-120b. - Se o endpoint do Mantle não estiver disponível ou não retornar modelos, o provedor será ignorado silenciosamente.