Vai al contenuto principale

Venice AI (highlight Venice)

Venice è il nostro highlight per la configurazione Venice per un’inferenza privacy-first con accesso anonimizzato facoltativo a modelli proprietari. Venice AI fornisce inferenza AI orientata alla privacy con supporto per modelli uncensored e accesso ai principali modelli proprietari tramite il loro proxy anonimizzato. Tutta l’inferenza è privata per impostazione predefinita: nessun training sui tuoi dati, nessun logging.

Perché Venice in OpenClaw

  • Inferenza privata per modelli open-source (nessun logging).
  • Modelli uncensored quando ti servono.
  • Accesso anonimizzato a modelli proprietari (Opus/GPT/Gemini) quando la qualità conta.
  • Endpoint /v1 compatibili con OpenAI.

Modalità di privacy

Venice offre due livelli di privacy — comprenderli è fondamentale per scegliere il tuo modello:
ModalitàDescrizioneModelli
PrivateCompletamente privata. Prompt/risposte non vengono mai archiviati o registrati. Effimera.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ecc.
AnonymizedInstradata tramite Venice con metadati rimossi. Il provider sottostante (OpenAI, Anthropic, Google, xAI) vede richieste anonimizzate.Claude, GPT, Gemini, Grok

Funzionalità

  • Orientata alla privacy: scegli tra modalità “private” (completamente privata) e “anonymized” (instradata tramite proxy)
  • Modelli uncensored: accesso a modelli senza restrizioni sui contenuti
  • Accesso ai modelli principali: usa Claude, GPT, Gemini e Grok tramite il proxy anonimizzato di Venice
  • API compatibile con OpenAI: endpoint /v1 standard per integrazione semplice
  • Streaming: ✅ supportato su tutti i modelli
  • Function calling: ✅ supportato su modelli selezionati (controlla le capacità del modello)
  • Vision: ✅ supportata sui modelli con capacità vision
  • Nessun hard rate limit: possono applicarsi limitazioni fair-use in caso di uso estremo

Setup

1. Ottieni la chiave API

  1. Registrati su venice.ai
  2. Vai su Settings → API Keys → Create new key
  3. Copia la tua chiave API (formato: vapi_xxxxxxxxxxxx)

2. Configura OpenClaw

Opzione A: variabile d’ambiente
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Opzione B: setup interattivo (consigliato)
openclaw onboard --auth-choice venice-api-key
Questo:
  1. Richiederà la tua chiave API (oppure userà VENICE_API_KEY esistente)
  2. Mostrerà tutti i modelli Venice disponibili
  3. Ti permetterà di scegliere il modello predefinito
  4. Configurerà automaticamente il provider
Opzione C: non interattivo
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Verifica il setup

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Selezione del modello

Dopo il setup, OpenClaw mostra tutti i modelli Venice disponibili. Scegli in base alle tue esigenze:
  • Modello predefinito: venice/kimi-k2-5 per reasoning privato forte più vision.
  • Opzione ad alta capacità: venice/claude-opus-4-6 per il percorso Venice anonimizzato più forte.
  • Privacy: scegli i modelli “private” per un’inferenza completamente privata.
  • Capacità: scegli i modelli “anonymized” per accedere a Claude, GPT, Gemini tramite il proxy di Venice.
Cambia il tuo modello predefinito in qualsiasi momento:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Elenca tutti i modelli disponibili:
openclaw models list | grep venice

Configura tramite openclaw configure

  1. Esegui openclaw configure
  2. Seleziona Model/auth
  3. Scegli Venice AI

Quale modello dovrei usare?

Caso d’usoModello consigliatoPerché
Chat generale (predefinito)kimi-k2-5Reasoning privato forte più vision
Migliore qualità complessivaclaude-opus-4-6Opzione Venice anonimizzata più forte
Privacy + codingqwen3-coder-480b-a35b-instructModello di coding privato con ampio contesto
Vision privatakimi-k2-5Supporto vision senza uscire dalla modalità privata
Veloce + economicoqwen3-4bModello di reasoning leggero
Task privati complessideepseek-v3.2Reasoning forte, ma senza supporto agli strumenti Venice
Uncensoredvenice-uncensoredNessuna restrizione sui contenuti

Modelli disponibili (41 totali)

Modelli Private (26) - Completamente privati, senza logging

ID modelloNomeContestoFunzionalità
kimi-k2-5Kimi K2.5256kPredefinito, reasoning, vision
kimi-k2-thinkingKimi K2 Thinking256kReasoning
llama-3.3-70bLlama 3.3 70B128kGenerale
llama-3.2-3bLlama 3.2 3B128kGenerale
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGenerale, strumenti disabilitati
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kReasoning
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGenerale
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoding
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoding
qwen3-5-35b-a3bQwen3.5 35B A3B256kReasoning, vision
qwen3-next-80bQwen3 Next 80B256kGenerale
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kVeloce, reasoning
deepseek-v3.2DeepSeek V3.2160kReasoning, strumenti disabilitati
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kUncensored, strumenti disabilitati
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGenerale
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGenerale
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kReasoning
zai-org-glm-4.6GLM 4.6198kGenerale
zai-org-glm-4.7GLM 4.7198kReasoning
zai-org-glm-4.7-flashGLM 4.7 Flash128kReasoning
zai-org-glm-5GLM 5198kReasoning
minimax-m21MiniMax M2.1198kReasoning
minimax-m25MiniMax M2.5198kReasoning

Modelli Anonymized (15) - Tramite proxy Venice

ID modelloNomeContestoFunzionalità
claude-opus-4-6Claude Opus 4.6 (via Venice)1MReasoning, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kReasoning, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MReasoning, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kReasoning, vision
openai-gpt-54GPT-5.4 (via Venice)1MReasoning, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kReasoning, vision, coding
openai-gpt-52GPT-5.2 (via Venice)256kReasoning
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kReasoning, vision, coding
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MReasoning, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kReasoning, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kReasoning, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MReasoning, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kReasoning, coding

Rilevamento dei modelli

OpenClaw rileva automaticamente i modelli dall’API di Venice quando VENICE_API_KEY è impostata. Se l’API non è raggiungibile, torna a un catalogo statico. L’endpoint /models è pubblico (non richiede autenticazione per l’elenco), ma l’inferenza richiede una chiave API valida.

Supporto per streaming e strumenti

FunzionalitàSupporto
Streaming✅ Tutti i modelli
Function calling✅ La maggior parte dei modelli (controlla supportsFunctionCalling nell’API)
Vision/Immagini✅ Modelli contrassegnati con la funzionalità “Vision”
Modalità JSON✅ Supportata tramite response_format

Prezzi

Venice usa un sistema basato su crediti. Controlla venice.ai/pricing per le tariffe attuali:
  • Modelli Private: in genere costo inferiore
  • Modelli Anonymized: simili al prezzo API diretto + una piccola commissione Venice

Confronto: Venice vs API diretta

AspettoVenice (Anonymized)API diretta
PrivacyMetadati rimossi, anonimizzataIl tuo account è collegato
Latenza+10-50 ms (proxy)Diretta
FunzionalitàLa maggior parte delle funzionalità supportataFunzionalità complete
FatturazioneCrediti VeniceFatturazione del provider

Esempi di utilizzo

# Usa il modello private predefinito
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Usa Claude Opus tramite Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Usa un modello uncensored
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Usa un modello vision con immagine
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Usa un modello di coding
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Risoluzione dei problemi

Chiave API non riconosciuta

echo $VENICE_API_KEY
openclaw models list | grep venice
Assicurati che la chiave inizi con vapi_.

Modello non disponibile

Il catalogo modelli di Venice si aggiorna dinamicamente. Esegui openclaw models list per vedere i modelli attualmente disponibili. Alcuni modelli potrebbero essere temporaneamente offline.

Problemi di connessione

L’API Venice si trova su https://api.venice.ai/api/v1. Assicurati che la tua rete consenta connessioni HTTPS.

Esempio di file di configurazione

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}