Saltar al contenido principal

LM Studio

LM Studio es una aplicación amigable pero potente para ejecutar modelos de pesos abiertos en tu propio hardware. Te permite ejecutar modelos llama.cpp (GGUF) o MLX (Apple Silicon). Viene en un paquete con GUI o como daemon sin interfaz (llmster). Para consultar la documentación del producto y la configuración, consulta lmstudio.ai.

Inicio rápido

  1. Instala LM Studio (escritorio) o llmster (sin interfaz), luego inicia el servidor local:
curl -fsSL https://lmstudio.ai/install.sh | bash
  1. Inicia el servidor
Asegúrate de iniciar la aplicación de escritorio o ejecutar el daemon con el siguiente comando:
lms daemon up
lms server start --port 1234
Si estás usando la aplicación, asegúrate de tener JIT habilitado para una experiencia fluida. Obtén más información en la guía de JIT y TTL de LM Studio.
  1. OpenClaw requiere un valor de token de LM Studio. Establece LM_API_TOKEN:
export LM_API_TOKEN="your-lm-studio-api-token"
Si la autenticación de LM Studio está deshabilitada, usa cualquier valor de token no vacío:
export LM_API_TOKEN="placeholder-key"
Para obtener detalles sobre la configuración de autenticación de LM Studio, consulta Autenticación de LM Studio.
  1. Ejecuta la incorporación y elige LM Studio:
openclaw onboard
  1. En la incorporación, usa el prompt Default model para elegir tu modelo de LM Studio.
También puedes configurarlo o cambiarlo más tarde:
openclaw models set lmstudio/qwen/qwen3.5-9b
Las claves de modelo de LM Studio siguen el formato author/model-name (por ejemplo, qwen/qwen3.5-9b). Las referencias de modelo de OpenClaw anteponen el nombre del proveedor: lmstudio/qwen/qwen3.5-9b. Puedes encontrar la clave exacta de un modelo ejecutando curl http://localhost:1234/api/v1/models y buscando el campo key.

Incorporación no interactiva

Usa la incorporación no interactiva cuando quieras automatizar la configuración (CI, aprovisionamiento, arranque remoto):
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio
O especifica la URL base o el modelo con la clave de API:
openclaw onboard \
  --non-interactive \
  --accept-risk \
  --auth-choice lmstudio \
  --custom-base-url http://localhost:1234/v1 \
  --lmstudio-api-key "$LM_API_TOKEN" \
  --custom-model-id qwen/qwen3.5-9b
--custom-model-id toma la clave del modelo tal como la devuelve LM Studio (por ejemplo, qwen/qwen3.5-9b), sin el prefijo del proveedor lmstudio/. La incorporación no interactiva requiere --lmstudio-api-key (o LM_API_TOKEN en el entorno). Para servidores de LM Studio sin autenticación, funciona cualquier valor de token no vacío. --custom-api-key sigue siendo compatible por motivos de compatibilidad, pero se prefiere --lmstudio-api-key para LM Studio. Esto escribe models.providers.lmstudio, establece el modelo predeterminado en lmstudio/<custom-model-id> y escribe el perfil de autenticación lmstudio:default. La configuración interactiva puede solicitar una longitud de contexto de carga preferida opcional y la aplica a los modelos de LM Studio detectados que guarda en la configuración.

Configuración

Configuración explícita

{
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "${LM_API_TOKEN}",
        api: "openai-completions",
        models: [
          {
            id: "qwen/qwen3-coder-next",
            name: "Qwen 3 Coder Next",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Solución de problemas

LM Studio no detectado

Asegúrate de que LM Studio esté en ejecución y de haber configurado LM_API_TOKEN (para servidores sin autenticación, funciona cualquier valor de token no vacío):
# Inicia mediante la aplicación de escritorio, o sin interfaz:
lms server start --port 1234
Verifica que la API sea accesible:
curl http://localhost:1234/api/v1/models

Errores de autenticación (HTTP 401)

Si la configuración informa HTTP 401, verifica tu clave de API:
  • Comprueba que LM_API_TOKEN coincida con la clave configurada en LM Studio.
  • Para obtener detalles sobre la configuración de autenticación de LM Studio, consulta Autenticación de LM Studio.
  • Si tu servidor no requiere autenticación, usa cualquier valor de token no vacío para LM_API_TOKEN.

Carga de modelos justo a tiempo

LM Studio admite la carga de modelos justo a tiempo (JIT), donde los modelos se cargan en la primera solicitud. Asegúrate de tener esto habilitado para evitar errores de tipo ‘Model not loaded’.