Przejdź do głównej treści

Amazon Bedrock Mantle

OpenClaw zawiera dołączonego dostawcę Amazon Bedrock Mantle, który łączy się z kompatybilnym z OpenAI endpointem Mantle. Mantle hostuje modele open source i zewnętrzne (GPT-OSS, Qwen, Kimi, GLM i podobne) przez standardową powierzchnię /v1/chat/completions opartą na infrastrukturze Bedrock.
WłaściwośćWartość
Identyfikator dostawcyamazon-bedrock-mantle
APIopenai-completions (zgodne z OpenAI)
UwierzytelnianieJawny AWS_BEARER_TOKEN_BEDROCK lub generowanie bearer tokenu z łańcucha poświadczeń IAM
Domyślny regionus-east-1 (nadpisz przez AWS_REGION lub AWS_DEFAULT_REGION)

Pierwsze kroki

Wybierz preferowaną metodę uwierzytelniania i wykonaj kroki konfiguracji.
Najlepsze dla: środowisk, w których masz już bearer token Mantle.
1

Ustaw bearer token na hoście Gateway

export AWS_BEARER_TOKEN_BEDROCK="..."
Opcjonalnie ustaw region (domyślnie us-east-1):
export AWS_REGION="us-west-2"
2

Sprawdź, czy modele są wykrywane

openclaw models list
Wykryte modele pojawiają się pod dostawcą amazon-bedrock-mantle. Nie jest wymagana dodatkowa konfiguracja, chyba że chcesz nadpisać ustawienia domyślne.

Automatyczne wykrywanie modeli

Gdy AWS_BEARER_TOKEN_BEDROCK jest ustawione, OpenClaw używa go bezpośrednio. W przeciwnym razie OpenClaw próbuje wygenerować bearer token Mantle z domyślnego łańcucha poświadczeń AWS. Następnie wykrywa dostępne modele Mantle, wysyłając zapytanie do endpointu /v1/models dla danego regionu.
ZachowanieSzczegóły
Pamięć podręczna wykrywaniaWyniki buforowane przez 1 godzinę
Odświeżanie tokenu IAMCo godzinę
Bearer token to ten sam AWS_BEARER_TOKEN_BEDROCK, którego używa standardowy dostawca Amazon Bedrock.

Obsługiwane regiony

us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

Konfiguracja ręczna

Jeśli wolisz jawną konfigurację zamiast automatycznego wykrywania:
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

Uwagi zaawansowane

Obsługa rozumowania jest wywnioskowana z identyfikatorów modeli zawierających wzorce takie jak thinking, reasoner lub gpt-oss-120b. OpenClaw automatycznie ustawia reasoning: true dla pasujących modeli podczas wykrywania.
Jeśli endpoint Mantle jest niedostępny lub nie zwraca modeli, dostawca jest po cichu pomijany. OpenClaw nie zgłasza błędu; inni skonfigurowani dostawcy nadal działają normalnie.
Bedrock Mantle to oddzielny dostawca względem standardowego dostawcy Amazon Bedrock. Mantle używa kompatybilnej z OpenAI powierzchni /v1, podczas gdy standardowy dostawca Bedrock używa natywnego API Bedrock.Obaj dostawcy współdzielą te same poświadczenia AWS_BEARER_TOKEN_BEDROCK, gdy są dostępne.

Powiązane

Amazon Bedrock

Natywny dostawca Bedrock dla Anthropic Claude, Titan i innych modeli.

Wybór modelu

Wybór dostawców, odwołań do modeli i zachowania failover.

OAuth i uwierzytelnianie

Szczegóły uwierzytelniania i zasady ponownego użycia poświadczeń.

Rozwiązywanie problemów

Typowe problemy i sposoby ich rozwiązania.