Vai al contenuto principale

Amazon Bedrock Mantle

OpenClaw include un provider integrato Amazon Bedrock Mantle che si connette all’endpoint Mantle compatibile con OpenAI. Mantle ospita modelli open source e di terze parti (GPT-OSS, Qwen, Kimi, GLM e simili) tramite una superficie standard /v1/chat/completions supportata dall’infrastruttura Bedrock.
ProprietàValore
ID provideramazon-bedrock-mantle
APIopenai-completions (compatibile con OpenAI)
AutenticazioneAWS_BEARER_TOKEN_BEDROCK esplicito o generazione del bearer token tramite catena di credenziali IAM
Regione predefinitaus-east-1 (sovrascrivibile con AWS_REGION o AWS_DEFAULT_REGION)

Per iniziare

Scegli il metodo di autenticazione che preferisci e segui i passaggi di configurazione.
Ideale per: ambienti in cui hai già un bearer token Mantle.
1

Imposta il bearer token sull'host del gateway

export AWS_BEARER_TOKEN_BEDROCK="..."
Facoltativamente imposta una regione (il valore predefinito è us-east-1):
export AWS_REGION="us-west-2"
2

Verifica che i modelli vengano rilevati

openclaw models list
I modelli rilevati appaiono sotto il provider amazon-bedrock-mantle. Non è richiesta alcuna configurazione aggiuntiva a meno che tu non voglia sovrascrivere i valori predefiniti.

Rilevamento automatico dei modelli

Quando AWS_BEARER_TOKEN_BEDROCK è impostato, OpenClaw lo usa direttamente. In caso contrario, OpenClaw tenta di generare un bearer token Mantle dalla catena di credenziali predefinita AWS. Successivamente rileva i modelli Mantle disponibili interrogando l’endpoint regionale /v1/models.
ComportamentoDettaglio
Cache di rilevamentoRisultati memorizzati in cache per 1 ora
Aggiornamento token IAMOgni ora
Il bearer token è lo stesso AWS_BEARER_TOKEN_BEDROCK usato dal provider standard Amazon Bedrock.

Regioni supportate

us-east-1, us-east-2, us-west-2, ap-northeast-1, ap-south-1, ap-southeast-3, eu-central-1, eu-west-1, eu-west-2, eu-south-1, eu-north-1, sa-east-1.

Configurazione manuale

Se preferisci una configurazione esplicita invece del rilevamento automatico:
{
  models: {
    providers: {
      "amazon-bedrock-mantle": {
        baseUrl: "https://bedrock-mantle.us-east-1.api.aws/v1",
        api: "openai-completions",
        auth: "api-key",
        apiKey: "env:AWS_BEARER_TOKEN_BEDROCK",
        models: [
          {
            id: "gpt-oss-120b",
            name: "GPT-OSS 120B",
            reasoning: true,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 32000,
            maxTokens: 4096,
          },
        ],
      },
    },
  },
}

Note avanzate

Il supporto al ragionamento viene dedotto dagli ID modello che contengono pattern come thinking, reasoner o gpt-oss-120b. OpenClaw imposta reasoning: true automaticamente per i modelli corrispondenti durante il rilevamento.
Se l’endpoint Mantle non è disponibile o non restituisce modelli, il provider viene saltato silenziosamente. OpenClaw non genera errori; gli altri provider configurati continuano a funzionare normalmente.
Bedrock Mantle è un provider separato dal provider standard Amazon Bedrock. Mantle usa una superficie /v1 compatibile con OpenAI, mentre il provider Bedrock standard usa l’API Bedrock nativa.Entrambi i provider condividono la stessa credenziale AWS_BEARER_TOKEN_BEDROCK quando presente.

Correlati

Amazon Bedrock

Provider Bedrock nativo per Anthropic Claude, Titan e altri modelli.

Selezione del modello

Scelta dei provider, riferimenti ai modelli e comportamento di failover.

OAuth e autenticazione

Dettagli sull’autenticazione e regole di riutilizzo delle credenziali.

Risoluzione dei problemi

Problemi comuni e come risolverli.