Amazon Bedrock
OpenClaw kann Amazon Bedrock-Modelle über den Bedrock-Converse-Streaming-Provider von pi-ai verwenden. Die Bedrock-Authentifizierung nutzt die AWS-SDK-Standard-Credential-Chain, nicht einen API-Schlüssel.| Eigenschaft | Wert |
|---|---|
| Provider | amazon-bedrock |
| API | bedrock-converse-stream |
| Auth | AWS-Anmeldedaten (Umgebungsvariablen, Shared Config oder Instance Role) |
| Region | AWS_REGION oder AWS_DEFAULT_REGION (Standard: us-east-1) |
Erste Schritte
Wählen Sie Ihre bevorzugte Authentifizierungsmethode und folgen Sie den Einrichtungsschritten.- Access Keys / Umgebungsvariablen
- EC2-Instance-Roles (IMDS)
Am besten geeignet für: Entwicklerrechner, CI oder Hosts, auf denen Sie AWS-Anmeldedaten direkt verwalten.
Automatische Modellerkennung
OpenClaw kann Bedrock-Modelle, die Streaming und Textausgabe unterstützen, automatisch erkennen. Die Ermittlung verwendetbedrock:ListFoundationModels und
bedrock:ListInferenceProfiles, und die Ergebnisse werden zwischengespeichert (Standard: 1 Stunde).
So wird der implizite Provider aktiviert:
- Wenn
plugins.entries.amazon-bedrock.config.discovery.enabledauftruegesetzt ist, versucht OpenClaw die Ermittlung auch dann, wenn kein AWS-Umgebungsmarker vorhanden ist. - Wenn
plugins.entries.amazon-bedrock.config.discovery.enablednicht gesetzt ist, fügt OpenClaw den impliziten Bedrock-Provider nur automatisch hinzu, wenn einer dieser AWS-Authentifizierungsmarker erkannt wird:AWS_BEARER_TOKEN_BEDROCK,AWS_ACCESS_KEY_ID+AWS_SECRET_ACCESS_KEYoderAWS_PROFILE. - Der tatsächliche Authentifizierungspfad der Bedrock-Laufzeit verwendet weiterhin die AWS-SDK-Standardkette, daher
können Shared Config, SSO und IMDS-Instance-Role-Authentifizierung auch dann funktionieren, wenn für die Ermittlung
enabled: trueexplizit gesetzt werden musste.
Für explizite
models.providers["amazon-bedrock"]-Einträge kann OpenClaw die Bedrock-Authentifizierung über Umgebungsmarker weiterhin früh aus AWS-Umgebungsmarkern wie AWS_BEARER_TOKEN_BEDROCK auflösen, ohne das vollständige Laden der Laufzeit-Authentifizierung zu erzwingen. Der tatsächliche Authentifizierungspfad für Modellaufrufe verwendet weiterhin die AWS-SDK-Standardkette.Konfigurationsoptionen für die Ermittlung
Konfigurationsoptionen für die Ermittlung
Konfigurationsoptionen befinden sich unter
plugins.entries.amazon-bedrock.config.discovery:| Option | Standard | Beschreibung |
|---|---|---|
enabled | auto | Im Auto-Modus aktiviert OpenClaw den impliziten Bedrock-Provider nur, wenn ein unterstützter AWS-Umgebungsmarker erkannt wird. Setzen Sie true, um die Ermittlung zu erzwingen. |
region | AWS_REGION / AWS_DEFAULT_REGION / us-east-1 | AWS-Region, die für API-Aufrufe zur Ermittlung verwendet wird. |
providerFilter | (alle) | Entspricht Bedrock-Providernamen (zum Beispiel anthropic, amazon). |
refreshInterval | 3600 | Cache-Dauer in Sekunden. Setzen Sie 0, um den Cache zu deaktivieren. |
defaultContextWindow | 32000 | Kontextfenster, das für erkannte Modelle verwendet wird (überschreiben Sie es, wenn Sie die Modelllimits kennen). |
defaultMaxTokens | 4096 | Maximale Ausgabetokens, die für erkannte Modelle verwendet werden (überschreiben Sie es, wenn Sie die Modelllimits kennen). |
Schnelleinrichtung (AWS-Pfad)
Diese Anleitung erstellt eine IAM-Rolle, hängt Bedrock-Berechtigungen an, ordnet das Instance Profile zu und aktiviert die OpenClaw-Ermittlung auf dem EC2-Host.Erweiterte Konfiguration
Inference Profiles
Inference Profiles
OpenClaw erkennt regionale und globale Inference Profiles zusammen mit
Foundation-Modellen. Wenn ein Profil einem bekannten Foundation-Modell zugeordnet ist, übernimmt das
Profil dessen Fähigkeiten (Kontextfenster, maximale Tokens, Reasoning, Vision), und die korrekte
Bedrock-Anfrageregion wird automatisch injiziert. Dadurch funktionieren regionenübergreifende Claude-Profile ohne manuelle
Provider-Overrides.Inference-Profile-IDs sehen beispielsweise so aus:
us.anthropic.claude-opus-4-6-v1:0 (regional)
oder anthropic.claude-opus-4-6-v1:0 (global). Wenn das zugrunde liegende Modell bereits
in den Ermittlungsergebnissen vorhanden ist, übernimmt das Profil dessen vollständigen Fähigkeitssatz;
andernfalls werden sichere Standardwerte angewendet.Es ist keine zusätzliche Konfiguration erforderlich. Solange die Ermittlung aktiviert ist und der IAM-
Principal über bedrock:ListInferenceProfiles verfügt, erscheinen Profile zusammen mit
Foundation-Modellen in openclaw models list.Guardrails
Guardrails
Sie können Amazon Bedrock Guardrails
auf alle Bedrock-Modellaufrufe anwenden, indem Sie der
amazon-bedrock-Plugin-Konfiguration ein guardrail-Objekt hinzufügen. Guardrails ermöglichen die Durchsetzung von Inhaltsfiltern,
Themenablehnung, Wortfiltern, Filtern für sensible Informationen und
Prüfungen zur kontextuellen Verankerung.| Option | Erforderlich | Beschreibung |
|---|---|---|
guardrailIdentifier | Ja | Guardrail-ID (z. B. abc123) oder vollständige ARN (z. B. arn:aws:bedrock:us-east-1:123456789012:guardrail/abc123). |
guardrailVersion | Ja | Veröffentlichte Versionsnummer oder "DRAFT" für den Arbeitsentwurf. |
streamProcessingMode | Nein | "sync" oder "async" für die Guardrail-Auswertung während des Streamings. Wenn weggelassen, verwendet Bedrock den Standardwert. |
trace | Nein | "enabled" oder "enabled_full" zum Debuggen; für Produktion weglassen oder auf "disabled" setzen. |
Embeddings für memory_search
Embeddings für memory_search
Bedrock kann auch als Embedding-Provider für
memory_search dienen. Dies wird getrennt vom
Inferenz-Provider konfiguriert – setzen Sie Bedrock-Embeddings verwenden dieselbe AWS-SDK-Credential-Chain wie die Inferenz (Instance
Roles, SSO, Access Keys, Shared Config und Web Identity). Es ist kein API-Schlüssel
erforderlich. Wenn
agents.defaults.memorySearch.provider auf "bedrock":provider auf "auto" gesetzt ist, wird Bedrock automatisch erkannt, wenn diese
Credential-Chain erfolgreich aufgelöst wird.Unterstützte Embedding-Modelle umfassen Amazon Titan Embed (v1, v2), Amazon Nova
Embed, Cohere Embed (v3, v4) und TwelveLabs Marengo. Siehe
Konfigurationsreferenz für Memory — Bedrock
für die vollständige Modellliste und Dimensionsoptionen.Hinweise und Einschränkungen
Hinweise und Einschränkungen
- Bedrock erfordert, dass Modellzugriff in Ihrem AWS-Konto/Ihrer AWS-Region aktiviert ist.
- Die automatische Ermittlung benötigt die Berechtigungen
bedrock:ListFoundationModelsundbedrock:ListInferenceProfiles. - Wenn Sie sich auf den Auto-Modus verlassen, setzen Sie einen der unterstützten AWS-Authentifizierungs-Umgebungsmarker auf dem
Gateway-Host. Wenn Sie IMDS-/Shared-Config-Authentifizierung ohne Umgebungsmarker bevorzugen, setzen Sie
plugins.entries.amazon-bedrock.config.discovery.enabled: true. - OpenClaw zeigt die Quelle der Anmeldedaten in dieser Reihenfolge an:
AWS_BEARER_TOKEN_BEDROCK, dannAWS_ACCESS_KEY_ID+AWS_SECRET_ACCESS_KEY, dannAWS_PROFILE, dann die standardmäßige AWS-SDK-Kette. - Die Unterstützung für Reasoning hängt vom Modell ab; prüfen Sie die Bedrock-Modellkarte auf aktuelle Fähigkeiten.
- Wenn Sie einen verwalteten Schlüsselfluss bevorzugen, können Sie auch einen OpenAI-kompatiblen Proxy vor Bedrock schalten und ihn stattdessen als OpenAI-Provider konfigurieren.
Verwandt
Modellauswahl
Auswahl von Providern, Modell-Refs und Failover-Verhalten.
memory_search
Konfiguration von Bedrock-Embeddings für memory_search.
Memory-Konfigurationsreferenz
Vollständige Bedrock-Embedding-Modellliste und Dimensionsoptionen.
Fehlerbehebung
Allgemeine Fehlerbehebung und FAQ.