Cerebras proporciona inferencia de alta velocidad compatible con OpenAI.Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| Propiedad | Valor |
|---|---|
| Proveedor | cerebras |
| Autenticación | CEREBRAS_API_KEY |
| API | compatible con OpenAI |
| URL base | https://api.cerebras.ai/v1 |
Primeros pasos
Get an API key
Crea una clave de API en la consola de Cerebras Cloud.
Configuración no interactiva
Catálogo integrado
OpenClaw incluye un catálogo estático de Cerebras para el endpoint público compatible con OpenAI:| Referencia del modelo | Nombre | Notas |
|---|---|---|
cerebras/zai-glm-4.7 | Z.ai GLM 4.7 | Modelo predeterminado; modelo de razonamiento en vista previa |
cerebras/gpt-oss-120b | GPT OSS 120B | Modelo de razonamiento de producción |
cerebras/qwen-3-235b-a22b-instruct-2507 | Qwen 3 235B Instruct | Modelo sin razonamiento en vista previa |
cerebras/llama3.1-8b | Llama 3.1 8B | Modelo de producción centrado en la velocidad |
Configuración manual
El Plugin incluido normalmente significa que solo necesitas la clave de API. Usa una configuración explícita demodels.providers.cerebras cuando quieras sobrescribir los metadatos del modelo:
Si el Gateway se ejecuta como daemon (launchd/systemd), asegúrate de que
CEREBRAS_API_KEY
esté disponible para ese proceso, por ejemplo en ~/.openclaw/.env o mediante
env.shellEnv.