Zum Hauptinhalt springen

Amazon Bedrock Mantle

OpenClaw enthält einen gebündelten Provider für Amazon Bedrock Mantle, der eine Verbindung zum OpenAI-kompatiblen Mantle-Endpunkt herstellt. Mantle hostet Open-Source- und Drittanbieter-Modelle (GPT-OSS, Qwen, Kimi, GLM und ähnliche) über eine standardisierte Oberfläche auf Basis von /v1/chat/completions, die von der Bedrock-Infrastruktur unterstützt wird.
EigenschaftWert
Provider-IDamazon-bedrock-mantle
APIopenai-completions (OpenAI-kompatibel)
AuthExplizites AWS_BEARER_TOKEN_BEDROCK oder Bearer-Token-Generierung über IAM-Credential-Chain
Standardregionus-east-1 (mit AWS_REGION oder AWS_DEFAULT_REGION überschreiben)

Erste Schritte

Wählen Sie Ihre bevorzugte Auth-Methode und folgen Sie den Einrichtungsschritten.
Am besten geeignet für: Umgebungen, in denen Sie bereits ein Mantle-Bearer-Token haben.
1

Bearer-Token auf dem Gateway-Host setzen

export AWS_BEARER_TOKEN_BEDROCK="..."
Optional können Sie eine Region festlegen (Standard ist us-east-1):
export AWS_REGION="us-west-2"
2

Prüfen, ob Modelle erkannt werden

openclaw models list
Erkannte Modelle erscheinen unter dem Provider amazon-bedrock-mantle. Es ist keine zusätzliche Konfiguration erforderlich, sofern Sie die Standardwerte nicht überschreiben möchten.

Automatische Modellerkennung

Wenn AWS_BEARER_TOKEN_BEDROCK gesetzt ist, verwendet OpenClaw es direkt. Andernfalls versucht OpenClaw, aus der AWS-Standard-Credential-Chain ein Mantle-Bearer-Token zu generieren. Danach erkennt es verfügbare Mantle-Modelle, indem es den Endpunkt /v1/models der Region abfragt.
VerhaltenDetail
Discovery-CacheErgebnisse 1 Stunde gecacht
IAM-Token-AktualisierungStündlich
Das Bearer-Token ist dasselbe AWS_BEARER_TOKEN_BEDROCK, das vom standardmäßigen Provider Amazon Bedrock verwendet wird.

Unterstützte Regionen

us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

Manuelle Konfiguration

Wenn Sie statt der automatischen Erkennung eine explizite Konfiguration bevorzugen:
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

Erweiterte Hinweise

Die Reasoning-Unterstützung wird aus Modell-IDs mit Mustern wie thinking, reasoner oder gpt-oss-120b abgeleitet. OpenClaw setzt reasoning: true während der Erkennung automatisch für passende Modelle.
Wenn der Mantle-Endpunkt nicht verfügbar ist oder keine Modelle zurückgibt, wird der Provider stillschweigend übersprungen. OpenClaw gibt keinen Fehler aus; andere konfigurierte Provider funktionieren normal weiter.
Bedrock Mantle ist ein separater Provider vom standardmäßigen Provider Amazon Bedrock. Mantle verwendet eine OpenAI-kompatible /v1-Oberfläche, während der standardmäßige Bedrock-Provider die native Bedrock-API verwendet.Beide Provider verwenden dieselbe Credential AWS_BEARER_TOKEN_BEDROCK, wenn sie vorhanden ist.

Verwandt

Amazon Bedrock

Nativer Bedrock-Provider für Anthropic Claude, Titan und andere Modelle.

Modellauswahl

Auswahl von Providern, Modell-Referenzen und Failover-Verhalten.

OAuth und Auth

Auth-Details und Regeln zur Wiederverwendung von Zugangsdaten.

Fehlerbehebung

Häufige Probleme und wie sie gelöst werden.