Amazon Bedrock Mantle
OpenClaw zawiera dołączonego providera Amazon Bedrock Mantle, który łączy się z endpointem Mantle zgodnym z OpenAI. Mantle hostuje modele open source i modele firm trzecich (GPT-OSS, Qwen, Kimi, GLM i podobne) przez standardową powierzchnię/v1/chat/completions opartą na infrastrukturze Bedrock.
Co obsługuje OpenClaw
- Provider:
amazon-bedrock-mantle - API:
openai-completions(zgodne z OpenAI) - Uwierzytelnianie: bearer token przez
AWS_BEARER_TOKEN_BEDROCK - Region:
AWS_REGIONlubAWS_DEFAULT_REGION(domyślnie:us-east-1)
Automatyczne wykrywanie modeli
Gdy ustawionoAWS_BEARER_TOKEN_BEDROCK, OpenClaw automatycznie wykrywa
dostępne modele Mantle, odpytując endpoint /v1/models dla danego regionu.
Wyniki wykrywania są przechowywane w pamięci podręcznej przez 1 godzinę.
Obsługiwane regiony: us-east-1, us-east-2, us-west-2, ap-northeast-1,
ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2,
eu-south-1, eu-north-1, sa-east-1.
Onboarding
- Ustaw bearer token na hoście gateway:
- Zweryfikuj, że modele zostały wykryte:
amazon-bedrock-mantle. Żaden
dodatkowy config nie jest wymagany, chyba że chcesz nadpisać ustawienia domyślne.
Konfiguracja ręczna
Jeśli wolisz jawny config zamiast automatycznego wykrywania:Uwagi
- Mantle obecnie wymaga bearer tokena. Same poświadczenia IAM (role instancji, SSO, klucze dostępu) nie wystarczą bez tokena.
- Bearer token to ten sam
AWS_BEARER_TOKEN_BEDROCK, którego używa standardowy provider Amazon Bedrock. - Obsługa rozumowania jest wywnioskowana z identyfikatorów modeli zawierających wzorce takie jak
thinking,reasonerlubgpt-oss-120b. - Jeśli endpoint Mantle jest niedostępny lub nie zwraca modeli, provider jest po cichu pomijany.