Vai al contenuto principale

Venice AI

Venice AI offre inferenza AI orientata alla privacy con supporto per modelli senza censure e accesso ai principali modelli proprietari tramite il proprio proxy anonimizzato. Tutta l’inferenza è privata per impostazione predefinita — nessun addestramento sui tuoi dati, nessun logging.

Perché Venice in OpenClaw

  • Inferenza privata per modelli open source (senza logging).
  • Modelli senza censure quando ne hai bisogno.
  • Accesso anonimizzato a modelli proprietari (Opus/GPT/Gemini) quando la qualità conta.
  • Endpoint /v1 compatibili con OpenAI.

Modalità privacy

Venice offre due livelli di privacy — capirli è fondamentale per scegliere il tuo modello:
ModalitàDescrizioneModelli
PrivateCompletamente privata. Prompt/risposte non vengono mai archiviati o registrati. Effimera.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ecc.
AnonymizedInstradata tramite Venice con metadati rimossi. Il provider sottostante (OpenAI, Anthropic, Google, xAI) vede richieste anonimizzate.Claude, GPT, Gemini, Grok
I modelli anonimizzati non sono completamente privati. Venice rimuove i metadati prima dell’inoltro, ma il provider sottostante (OpenAI, Anthropic, Google, xAI) elabora comunque la richiesta. Scegli i modelli Private quando è richiesta la piena privacy.

Funzionalità

  • Orientata alla privacy: scegli tra modalità “private” (completamente privata) e “anonymized” (tramite proxy)
  • Modelli senza censure: accesso a modelli senza restrizioni sui contenuti
  • Accesso ai principali modelli: usa Claude, GPT, Gemini e Grok tramite il proxy anonimizzato di Venice
  • API compatibile con OpenAI: endpoint /v1 standard per una facile integrazione
  • Streaming: supportato su tutti i modelli
  • Function calling: supportato su modelli selezionati (controlla le capacità del modello)
  • Vision: supportata sui modelli con capacità vision
  • Nessun limite rigido di frequenza: in caso di utilizzo estremo può essere applicato un throttling fair-use

Per iniziare

1

Ottieni la tua chiave API

  1. Registrati su venice.ai
  2. Vai su Settings > API Keys > Create new key
  3. Copia la tua chiave API (formato: vapi_xxxxxxxxxxxx)
2

Configura OpenClaw

Scegli il metodo di configurazione che preferisci:
openclaw onboard --auth-choice venice-api-key
Questo:
  1. Richiederà la tua chiave API (oppure userà VENICE_API_KEY esistente)
  2. Mostrerà tutti i modelli Venice disponibili
  3. Ti permetterà di scegliere il tuo modello predefinito
  4. Configurerà automaticamente il provider
3

Verifica la configurazione

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Selezione del modello

Dopo la configurazione, OpenClaw mostra tutti i modelli Venice disponibili. Scegli in base alle tue esigenze:
  • Modello predefinito: venice/kimi-k2-5 per un forte reasoning privato più vision.
  • Opzione ad alta capacità: venice/claude-opus-4-6 per il percorso Venice anonimizzato più potente.
  • Privacy: scegli modelli “private” per un’inferenza completamente privata.
  • Capacità: scegli modelli “anonymized” per accedere a Claude, GPT, Gemini tramite il proxy di Venice.
Cambia il tuo modello predefinito in qualsiasi momento:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Elenca tutti i modelli disponibili:
openclaw models list | grep venice
Puoi anche eseguire openclaw configure, selezionare Model/auth e scegliere Venice AI.
Usa la tabella qui sotto per scegliere il modello giusto per il tuo caso d’uso.
Caso d’usoModello consigliatoPerché
Chat generale (predefinita)kimi-k2-5Forte reasoning privato più vision
Migliore qualità complessivaclaude-opus-4-6Opzione Venice anonimizzata più potente
Privacy + codingqwen3-coder-480b-a35b-instructModello di coding privato con ampio contesto
Vision privatakimi-k2-5Supporto vision senza uscire dalla modalità privata
Veloce + economicoqwen3-4bModello di reasoning leggero
Attività private complessedeepseek-v3.2Forte reasoning, ma senza supporto strumenti Venice
Senza censurevenice-uncensoredNessuna restrizione sui contenuti

Modelli disponibili (41 in totale)

ID modelloNomeContestoFunzionalità
kimi-k2-5Kimi K2.5256kPredefinito, reasoning, vision
kimi-k2-thinkingKimi K2 Thinking256kReasoning
llama-3.3-70bLlama 3.3 70B128kGenerale
llama-3.2-3bLlama 3.2 3B128kGenerale
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGenerale, strumenti disabilitati
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kReasoning
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGenerale
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoding
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoding
qwen3-5-35b-a3bQwen3.5 35B A3B256kReasoning, vision
qwen3-next-80bQwen3 Next 80B256kGenerale
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kVeloce, reasoning
deepseek-v3.2DeepSeek V3.2160kReasoning, strumenti disabilitati
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kSenza censure, strumenti disabilitati
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGenerale
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGenerale
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kReasoning
zai-org-glm-4.6GLM 4.6198kGenerale
zai-org-glm-4.7GLM 4.7198kReasoning
zai-org-glm-4.7-flashGLM 4.7 Flash128kReasoning
zai-org-glm-5GLM 5198kReasoning
minimax-m21MiniMax M2.1198kReasoning
minimax-m25MiniMax M2.5198kReasoning
ID modelloNomeContestoFunzionalità
claude-opus-4-6Claude Opus 4.6 (tramite Venice)1MReasoning, vision
claude-opus-4-5Claude Opus 4.5 (tramite Venice)198kReasoning, vision
claude-sonnet-4-6Claude Sonnet 4.6 (tramite Venice)1MReasoning, vision
claude-sonnet-4-5Claude Sonnet 4.5 (tramite Venice)198kReasoning, vision
openai-gpt-54GPT-5.4 (tramite Venice)1MReasoning, vision
openai-gpt-53-codexGPT-5.3 Codex (tramite Venice)400kReasoning, vision, coding
openai-gpt-52GPT-5.2 (tramite Venice)256kReasoning
openai-gpt-52-codexGPT-5.2 Codex (tramite Venice)256kReasoning, vision, coding
openai-gpt-4o-2024-11-20GPT-4o (tramite Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (tramite Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (tramite Venice)1MReasoning, vision
gemini-3-pro-previewGemini 3 Pro (tramite Venice)198kReasoning, vision
gemini-3-flash-previewGemini 3 Flash (tramite Venice)256kReasoning, vision
grok-41-fastGrok 4.1 Fast (tramite Venice)1MReasoning, vision
grok-code-fast-1Grok Code Fast 1 (tramite Venice)256kReasoning, coding

Rilevamento dei modelli

OpenClaw rileva automaticamente i modelli dall’API Venice quando VENICE_API_KEY è impostata. Se l’API non è raggiungibile, torna a un catalogo statico. L’endpoint /models è pubblico (non serve autenticazione per l’elenco), ma l’inferenza richiede una chiave API valida.

Supporto per streaming e strumenti

FunzionalitàSupporto
StreamingTutti i modelli
Function callingLa maggior parte dei modelli (controlla supportsFunctionCalling nell’API)
Vision/ImmaginiModelli contrassegnati con la funzionalità “Vision”
Modalità JSONSupportata tramite response_format

Prezzi

Venice usa un sistema basato su crediti. Controlla venice.ai/pricing per le tariffe attuali:
  • Modelli Private: costo generalmente inferiore
  • Modelli Anonymized: simili al prezzo API diretto + una piccola tariffa Venice

Venice (anonimizzato) vs API diretta

AspettoVenice (anonimizzato)API diretta
PrivacyMetadati rimossi, anonimizzatoIl tuo account è collegato
Latenza+10-50 ms (proxy)Diretta
FunzionalitàLa maggior parte delle funzionalità supportataFunzionalità complete
FatturazioneCrediti VeniceFatturazione del provider

Esempi di utilizzo

# Usa il modello privato predefinito
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Usa Claude Opus tramite Venice (anonimizzato)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Usa un modello senza censure
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Usa un modello vision con immagine
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Usa un modello di coding
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Risoluzione dei problemi

echo $VENICE_API_KEY
openclaw models list | grep venice
Assicurati che la chiave inizi con vapi_.
Il catalogo dei modelli Venice si aggiorna dinamicamente. Esegui openclaw models list per vedere i modelli attualmente disponibili. Alcuni modelli potrebbero essere temporaneamente offline.
L’API Venice si trova all’indirizzo https://api.venice.ai/api/v1. Assicurati che la tua rete consenta connessioni HTTPS.

Configurazione avanzata

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Correlati

Selezione del modello

Scelta dei provider, riferimenti ai modelli e comportamento di failover.

Venice AI

Homepage di Venice AI e registrazione dell’account.

Documentazione API

Riferimento API Venice e documentazione per sviluppatori.

Prezzi

Tariffe e piani di credito Venice attuali.