Amazon Bedrock Mantle
OpenClaw enthält einen gebündelten Provider für Amazon Bedrock Mantle, der eine Verbindung zum OpenAI-kompatiblen Mantle-Endpunkt herstellt. Mantle hostet Open-Source- und Drittanbieter-Modelle (GPT-OSS, Qwen, Kimi, GLM und ähnliche) über eine standardmäßige Oberfläche/v1/chat/completions, die von der Bedrock-Infrastruktur unterstützt wird.
Was OpenClaw unterstützt
- Provider:
amazon-bedrock-mantle - API:
openai-completions(OpenAI-kompatibel) - Authentifizierung: Bearer-Token über
AWS_BEARER_TOKEN_BEDROCK - Region:
AWS_REGIONoderAWS_DEFAULT_REGION(Standard:us-east-1)
Automatische Model-Erkennung
WennAWS_BEARER_TOKEN_BEDROCK gesetzt ist, erkennt OpenClaw automatisch
verfügbare Mantle-Modelle, indem der Endpunkt /v1/models der Region abgefragt wird.
Erkennungsergebnisse werden 1 Stunde lang im Cache gespeichert.
Unterstützte Regionen: us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Setzen Sie das Bearer-Token auf dem Gateway-Host:
- Prüfen Sie, ob Modelle erkannt werden:
amazon-bedrock-mantle angezeigt. Es ist
keine zusätzliche Konfiguration erforderlich, es sei denn, Sie möchten Standardwerte überschreiben.
Manuelle Konfiguration
Wenn Sie eine explizite Konfiguration statt automatischer Erkennung bevorzugen:Hinweise
- Mantle erfordert derzeit ein Bearer-Token. Normale IAM-Zugangsdaten (Instance Roles, SSO, Access Keys) reichen ohne ein Token nicht aus.
- Das Bearer-Token ist dasselbe
AWS_BEARER_TOKEN_BEDROCK, das vom standardmäßigen Provider Amazon Bedrock verwendet wird. - Die Unterstützung für Reasoning wird aus Model-IDs mit Mustern wie
thinking,reasonerodergpt-oss-120babgeleitet. - Wenn der Mantle-Endpunkt nicht verfügbar ist oder keine Modelle zurückgibt, wird der Provider stillschweigend übersprungen.