Saltar al contenido principal

Mistral

OpenClaw admite Mistral tanto para el enrutamiento de modelos de texto/imagen (mistral/...) como para la transcripción de audio mediante Voxtral en comprensión de medios. Mistral también puede usarse para embeddings de memoria (memorySearch.provider = "mistral").
  • Proveedor: mistral
  • Autenticación: MISTRAL_API_KEY
  • API: Mistral Chat Completions (https://api.mistral.ai/v1)

Primeros pasos

1

Get your API key

Crea una clave de API en la Consola de Mistral.
2

Run onboarding

openclaw onboard --auth-choice mistral-api-key
O pasa la clave directamente:
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"
3

Set a default model

{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}
4

Verify the model is available

openclaw models list --provider mistral

Catálogo integrado de LLM

OpenClaw actualmente incluye este catálogo integrado de Mistral:
Ref del modeloEntradaContextoSalida máximaNotas
mistral/mistral-large-latesttexto, imagen262,14416,384Modelo predeterminado
mistral/mistral-medium-2508texto, imagen262,1448,192Mistral Medium 3.1
mistral/mistral-small-latesttexto, imagen128,00016,384Mistral Small 4; reasoning ajustable mediante la API reasoning_effort
mistral/pixtral-large-latesttexto, imagen128,00032,768Pixtral
mistral/codestral-latesttexto256,0004,096Programación
mistral/devstral-medium-latesttexto262,14432,768Devstral 2
mistral/magistral-smalltexto128,00040,000Con reasoning habilitado

Transcripción de audio (Voxtral)

Usa Voxtral para la transcripción de audio mediante la canalización de comprensión de medios.
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}
La ruta de transcripción de medios usa /v1/audio/transcriptions. El modelo de audio predeterminado para Mistral es voxtral-mini-latest.

Configuración avanzada

mistral/mistral-small-latest corresponde a Mistral Small 4 y admite reasoning ajustable en la API de Chat Completions mediante reasoning_effort (none minimiza el pensamiento adicional en la salida; high muestra trazas completas de pensamiento antes de la respuesta final).OpenClaw asigna el nivel de thinking de la sesión a la API de Mistral:
Nivel de thinking de OpenClawreasoning_effort de Mistral
off / minimalnone
low / medium / high / xhigh / adaptivehigh
Los demás modelos del catálogo integrado de Mistral no usan este parámetro. Sigue usando modelos magistral-* cuando quieras el comportamiento nativo de Mistral centrado primero en reasoning.
Mistral puede servir embeddings de memoria mediante /v1/embeddings (modelo predeterminado: mistral-embed).
{
  memorySearch: { provider: "mistral" },
}
  • La autenticación de Mistral usa MISTRAL_API_KEY.
  • La URL base del proveedor usa por defecto https://api.mistral.ai/v1.
  • El modelo predeterminado del onboarding es mistral/mistral-large-latest.
  • Z.AI usa autenticación Bearer con tu clave de API.

Relacionado

Model selection

Cómo elegir proveedores, refs de modelos y comportamiento de failover.

Media understanding

Configuración de transcripción de audio y selección de proveedor.