Saltar al contenido principal

Venice AI

Venice AI ofrece inferencia de IA centrada en la privacidad con compatibilidad con modelos sin censura y acceso a los principales modelos propietarios mediante su proxy anonimizado. Toda la inferencia es privada por defecto: sin entrenamiento con tus datos y sin registros.

Por qué usar Venice en OpenClaw

  • Inferencia privada para modelos de código abierto (sin registros).
  • Modelos sin censura cuando los necesites.
  • Acceso anonimizado a modelos propietarios (Opus/GPT/Gemini) cuando la calidad importe.
  • Endpoints /v1 compatibles con OpenAI.

Modos de privacidad

Venice ofrece dos niveles de privacidad; entender esto es clave para elegir tu modelo:
ModeDescriptionModels
PrivateCompletamente privado. Los prompts/respuestas nunca se almacenan ni registran. Efímero.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
AnonymizedSe envía a través de Venice con los metadatos eliminados. El proveedor subyacente (OpenAI, Anthropic, Google, xAI) ve solicitudes anonimizadas.Claude, GPT, Gemini, Grok
Los modelos anonymized no son completamente privados. Venice elimina los metadatos antes de reenviar la solicitud, pero el proveedor subyacente (OpenAI, Anthropic, Google, xAI) sigue procesando la solicitud. Elige modelos Private cuando se requiera privacidad total.

Funciones

  • Centrado en la privacidad: elige entre los modos “private” (totalmente privado) y “anonymized” (mediante proxy)
  • Modelos sin censura: acceso a modelos sin restricciones de contenido
  • Acceso a grandes modelos: usa Claude, GPT, Gemini y Grok mediante el proxy anonimizado de Venice
  • API compatible con OpenAI: endpoints /v1 estándar para una integración sencilla
  • Streaming: compatible en todos los modelos
  • Llamada a funciones: compatible en modelos seleccionados (comprueba las capacidades del modelo)
  • Visión: compatible en modelos con capacidad de visión
  • Sin límites estrictos de tasa: puede aplicarse limitación de uso justo en casos de uso extremo

Primeros pasos

1

Get your API key

  1. Regístrate en venice.ai
  2. Ve a Settings > API Keys > Create new key
  3. Copia tu clave de API (formato: vapi_xxxxxxxxxxxx)
2

Configure OpenClaw

Elige tu método de configuración preferido:
3

Verify setup

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Selección de modelo

Después de la configuración, OpenClaw muestra todos los modelos de Venice disponibles. Elige según tus necesidades:
  • Modelo predeterminado: venice/kimi-k2-5 para un sólido razonamiento privado con visión.
  • Opción de alta capacidad: venice/claude-opus-4-6 para la ruta anonimizada de Venice más potente.
  • Privacidad: elige modelos “private” para inferencia totalmente privada.
  • Capacidad: elige modelos “anonymized” para acceder a Claude, GPT y Gemini mediante el proxy de Venice.
Cambia tu modelo predeterminado cuando quieras:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Enumera todos los modelos disponibles:
openclaw models list | grep venice
También puedes ejecutar openclaw configure, seleccionar Model/auth y elegir Venice AI.
Usa la siguiente tabla para elegir el modelo adecuado para tu caso de uso.
Use CaseRecommended ModelWhy
General chat (default)kimi-k2-5Sólido razonamiento privado con visión
Best overall qualityclaude-opus-4-6Opción Venice anonimizada más potente
Privacy + codingqwen3-coder-480b-a35b-instructModelo privado para coding con gran contexto
Private visionkimi-k2-5Compatibilidad con visión sin salir del modo privado
Fast + cheapqwen3-4bModelo de razonamiento ligero
Complex private tasksdeepseek-v3.2Razonamiento sólido, pero sin soporte de herramientas de Venice
Uncensoredvenice-uncensoredSin restricciones de contenido

Modelos disponibles (41 en total)

Model IDNameContextFeatures
kimi-k2-5Kimi K2.5256kPredeterminado, razonamiento, visión
kimi-k2-thinkingKimi K2 Thinking256kRazonamiento
llama-3.3-70bLlama 3.3 70B128kGeneral
llama-3.2-3bLlama 3.2 3B128kGeneral
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGeneral, herramientas deshabilitadas
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRazonamiento
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGeneral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoding
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoding
qwen3-5-35b-a3bQwen3.5 35B A3B256kRazonamiento, visión
qwen3-next-80bQwen3 Next 80B256kGeneral
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVisión
qwen3-4bVenice Small (Qwen3 4B)32kRápido, razonamiento
deepseek-v3.2DeepSeek V3.2160kRazonamiento, herramientas deshabilitadas
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kSin censura, herramientas deshabilitadas
mistral-31-24bVenice Medium (Mistral)128kVisión
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVisión
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGeneral
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGeneral
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRazonamiento
zai-org-glm-4.6GLM 4.6198kGeneral
zai-org-glm-4.7GLM 4.7198kRazonamiento
zai-org-glm-4.7-flashGLM 4.7 Flash128kRazonamiento
zai-org-glm-5GLM 5198kRazonamiento
minimax-m21MiniMax M2.1198kRazonamiento
minimax-m25MiniMax M2.5198kRazonamiento
Model IDNameContextFeatures
claude-opus-4-6Claude Opus 4.6 (a través de Venice)1MRazonamiento, visión
claude-opus-4-5Claude Opus 4.5 (a través de Venice)198kRazonamiento, visión
claude-sonnet-4-6Claude Sonnet 4.6 (a través de Venice)1MRazonamiento, visión
claude-sonnet-4-5Claude Sonnet 4.5 (a través de Venice)198kRazonamiento, visión
openai-gpt-54GPT-5.4 (a través de Venice)1MRazonamiento, visión
openai-gpt-53-codexGPT-5.3 Codex (a través de Venice)400kRazonamiento, visión, coding
openai-gpt-52GPT-5.2 (a través de Venice)256kRazonamiento
openai-gpt-52-codexGPT-5.2 Codex (a través de Venice)256kRazonamiento, visión, coding
openai-gpt-4o-2024-11-20GPT-4o (a través de Venice)128kVisión
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (a través de Venice)128kVisión
gemini-3-1-pro-previewGemini 3.1 Pro (a través de Venice)1MRazonamiento, visión
gemini-3-pro-previewGemini 3 Pro (a través de Venice)198kRazonamiento, visión
gemini-3-flash-previewGemini 3 Flash (a través de Venice)256kRazonamiento, visión
grok-41-fastGrok 4.1 Fast (a través de Venice)1MRazonamiento, visión
grok-code-fast-1Grok Code Fast 1 (a través de Venice)256kRazonamiento, coding

Descubrimiento de modelos

OpenClaw descubre automáticamente modelos desde la API de Venice cuando VENICE_API_KEY está establecido. Si la API no es accesible, recurre a un catálogo estático. El endpoint /models es público (no necesita autenticación para enumerar), pero la inferencia requiere una clave de API válida.

Compatibilidad con streaming y herramientas

FeatureSupport
StreamingTodos los modelos
Function callingLa mayoría de los modelos (consulta supportsFunctionCalling en la API)
Vision/ImagesModelos marcados con la función “Vision”
JSON modeCompatible mediante response_format

Precios

Venice usa un sistema basado en créditos. Consulta venice.ai/pricing para ver las tarifas actuales:
  • Modelos privados: por lo general, menor coste
  • Modelos anonimizados: precio similar al de la API directa + una pequeña tarifa de Venice

Venice (anonimizado) frente a API directa

AspectVenice (Anonymized)Direct API
PrivacyMetadatos eliminados, anonimizadoTu cuenta vinculada
Latency+10-50ms (proxy)Directa
FeaturesLa mayoría de las funciones compatiblesFunciones completas
BillingCréditos de VeniceFacturación del proveedor

Ejemplos de uso

# Usa el modelo privado predeterminado
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Usa Claude Opus mediante Venice (anonimizado)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Usa un modelo sin censura
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Usa un modelo de visión con imagen
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Usa un modelo de coding
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Solución de problemas

echo $VENICE_API_KEY
openclaw models list | grep venice
Asegúrate de que la clave empiece con vapi_.
El catálogo de modelos de Venice se actualiza dinámicamente. Ejecuta openclaw models list para ver los modelos disponibles actualmente. Algunos modelos pueden estar temporalmente fuera de línea.
La API de Venice está en https://api.venice.ai/api/v1. Asegúrate de que tu red permita conexiones HTTPS.

Configuración avanzada

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Relacionado

Selección de modelos

Elegir proveedores, referencias de modelos y comportamiento de failover.

Venice AI

Página principal de Venice AI y registro de cuenta.

Documentación de la API

Referencia de la API de Venice y documentación para desarrolladores.

Precios

Tarifas y planes actuales de créditos de Venice.