Venice AI (highlight Venice)
Venice è il nostro highlight per la configurazione Venice per un’inferenza privacy-first con accesso anonimizzato facoltativo a modelli proprietari. Venice AI fornisce inferenza AI orientata alla privacy con supporto per modelli uncensored e accesso ai principali modelli proprietari tramite il loro proxy anonimizzato. Tutta l’inferenza è privata per impostazione predefinita: nessun training sui tuoi dati, nessun logging.Perché Venice in OpenClaw
- Inferenza privata per modelli open-source (nessun logging).
- Modelli uncensored quando ti servono.
- Accesso anonimizzato a modelli proprietari (Opus/GPT/Gemini) quando la qualità conta.
- Endpoint
/v1compatibili con OpenAI.
Modalità di privacy
Venice offre due livelli di privacy — comprenderli è fondamentale per scegliere il tuo modello:| Modalità | Descrizione | Modelli |
|---|---|---|
| Private | Completamente privata. Prompt/risposte non vengono mai archiviati o registrati. Effimera. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ecc. |
| Anonymized | Instradata tramite Venice con metadati rimossi. Il provider sottostante (OpenAI, Anthropic, Google, xAI) vede richieste anonimizzate. | Claude, GPT, Gemini, Grok |
Funzionalità
- Orientata alla privacy: scegli tra modalità “private” (completamente privata) e “anonymized” (instradata tramite proxy)
- Modelli uncensored: accesso a modelli senza restrizioni sui contenuti
- Accesso ai modelli principali: usa Claude, GPT, Gemini e Grok tramite il proxy anonimizzato di Venice
- API compatibile con OpenAI: endpoint
/v1standard per integrazione semplice - Streaming: ✅ supportato su tutti i modelli
- Function calling: ✅ supportato su modelli selezionati (controlla le capacità del modello)
- Vision: ✅ supportata sui modelli con capacità vision
- Nessun hard rate limit: possono applicarsi limitazioni fair-use in caso di uso estremo
Setup
1. Ottieni la chiave API
- Registrati su venice.ai
- Vai su Settings → API Keys → Create new key
- Copia la tua chiave API (formato:
vapi_xxxxxxxxxxxx)
2. Configura OpenClaw
Opzione A: variabile d’ambiente- Richiederà la tua chiave API (oppure userà
VENICE_API_KEYesistente) - Mostrerà tutti i modelli Venice disponibili
- Ti permetterà di scegliere il modello predefinito
- Configurerà automaticamente il provider
3. Verifica il setup
Selezione del modello
Dopo il setup, OpenClaw mostra tutti i modelli Venice disponibili. Scegli in base alle tue esigenze:- Modello predefinito:
venice/kimi-k2-5per reasoning privato forte più vision. - Opzione ad alta capacità:
venice/claude-opus-4-6per il percorso Venice anonimizzato più forte. - Privacy: scegli i modelli “private” per un’inferenza completamente privata.
- Capacità: scegli i modelli “anonymized” per accedere a Claude, GPT, Gemini tramite il proxy di Venice.
Configura tramite openclaw configure
- Esegui
openclaw configure - Seleziona Model/auth
- Scegli Venice AI
Quale modello dovrei usare?
| Caso d’uso | Modello consigliato | Perché |
|---|---|---|
| Chat generale (predefinito) | kimi-k2-5 | Reasoning privato forte più vision |
| Migliore qualità complessiva | claude-opus-4-6 | Opzione Venice anonimizzata più forte |
| Privacy + coding | qwen3-coder-480b-a35b-instruct | Modello di coding privato con ampio contesto |
| Vision privata | kimi-k2-5 | Supporto vision senza uscire dalla modalità privata |
| Veloce + economico | qwen3-4b | Modello di reasoning leggero |
| Task privati complessi | deepseek-v3.2 | Reasoning forte, ma senza supporto agli strumenti Venice |
| Uncensored | venice-uncensored | Nessuna restrizione sui contenuti |
Modelli disponibili (41 totali)
Modelli Private (26) - Completamente privati, senza logging
| ID modello | Nome | Contesto | Funzionalità |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Predefinito, reasoning, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Reasoning |
llama-3.3-70b | Llama 3.3 70B | 128k | Generale |
llama-3.2-3b | Llama 3.2 3B | 128k | Generale |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | Generale, strumenti disabilitati |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Reasoning |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | Generale |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Coding |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Coding |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Reasoning, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | Generale |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Veloce, reasoning |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Reasoning, strumenti disabilitati |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Uncensored, strumenti disabilitati |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | Generale |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | Generale |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Reasoning |
zai-org-glm-4.6 | GLM 4.6 | 198k | Generale |
zai-org-glm-4.7 | GLM 4.7 | 198k | Reasoning |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Reasoning |
zai-org-glm-5 | GLM 5 | 198k | Reasoning |
minimax-m21 | MiniMax M2.1 | 198k | Reasoning |
minimax-m25 | MiniMax M2.5 | 198k | Reasoning |
Modelli Anonymized (15) - Tramite proxy Venice
| ID modello | Nome | Contesto | Funzionalità |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Reasoning, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Reasoning, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Reasoning, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Reasoning, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Reasoning, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Reasoning, vision, coding |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Reasoning |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Reasoning, vision, coding |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Reasoning, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Reasoning, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Reasoning, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Reasoning, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Reasoning, coding |
Rilevamento dei modelli
OpenClaw rileva automaticamente i modelli dall’API di Venice quandoVENICE_API_KEY è impostata. Se l’API non è raggiungibile, torna a un catalogo statico.
L’endpoint /models è pubblico (non richiede autenticazione per l’elenco), ma l’inferenza richiede una chiave API valida.
Supporto per streaming e strumenti
| Funzionalità | Supporto |
|---|---|
| Streaming | ✅ Tutti i modelli |
| Function calling | ✅ La maggior parte dei modelli (controlla supportsFunctionCalling nell’API) |
| Vision/Immagini | ✅ Modelli contrassegnati con la funzionalità “Vision” |
| Modalità JSON | ✅ Supportata tramite response_format |
Prezzi
Venice usa un sistema basato su crediti. Controlla venice.ai/pricing per le tariffe attuali:- Modelli Private: in genere costo inferiore
- Modelli Anonymized: simili al prezzo API diretto + una piccola commissione Venice
Confronto: Venice vs API diretta
| Aspetto | Venice (Anonymized) | API diretta |
|---|---|---|
| Privacy | Metadati rimossi, anonimizzata | Il tuo account è collegato |
| Latenza | +10-50 ms (proxy) | Diretta |
| Funzionalità | La maggior parte delle funzionalità supportata | Funzionalità complete |
| Fatturazione | Crediti Venice | Fatturazione del provider |
Esempi di utilizzo
Risoluzione dei problemi
Chiave API non riconosciuta
vapi_.
Modello non disponibile
Il catalogo modelli di Venice si aggiorna dinamicamente. Eseguiopenclaw models list per vedere i modelli attualmente disponibili. Alcuni modelli potrebbero essere temporaneamente offline.
Problemi di connessione
L’API Venice si trova suhttps://api.venice.ai/api/v1. Assicurati che la tua rete consenta connessioni HTTPS.