Venice AI (mise en avant de Venice)
Venice est notre mise en avant de la configuration Venice pour une inférence axée d’abord sur la confidentialité, avec accès anonymisé facultatif à des modèles propriétaires. Venice AI fournit une inférence IA axée sur la confidentialité avec prise en charge de modèles non censurés et accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — aucun entraînement sur vos données, aucune journalisation.Pourquoi Venice dans OpenClaw
- Inférence privée pour les modèles open source (aucune journalisation).
- Modèles non censurés lorsque vous en avez besoin.
- Accès anonymisé aux modèles propriétaires (Opus/GPT/Gemini) lorsque la qualité compte.
- Points de terminaison
/v1compatibles OpenAI.
Modes de confidentialité
Venice propose deux niveaux de confidentialité — comprendre cela est essentiel pour choisir votre modèle :| Mode | Description | Modèles |
|---|---|---|
| Privé | Entièrement privé. Les prompts/réponses ne sont jamais stockés ni journalisés. Éphémère. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc. |
| Anonymisé | Proxy via Venice avec métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées. | Claude, GPT, Gemini, Grok |
Fonctionnalités
- Axé sur la confidentialité : choisissez entre les modes « privé » (entièrement privé) et « anonymisé » (via proxy)
- Modèles non censurés : accès à des modèles sans restrictions de contenu
- Accès aux grands modèles : utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
- API compatible OpenAI : points de terminaison
/v1standard pour une intégration simple - Streaming : ✅ pris en charge sur tous les modèles
- Appel de fonctions : ✅ pris en charge sur certains modèles (vérifiez les capacités du modèle)
- Vision : ✅ prise en charge sur les modèles avec capacité vision
- Pas de limites de débit strictes : une limitation en usage raisonnable peut s’appliquer en cas d’usage extrême
Configuration
1. Obtenir une clé API
- Inscrivez-vous sur venice.ai
- Accédez à Settings → API Keys → Create new key
- Copiez votre clé API (format :
vapi_xxxxxxxxxxxx)
2. Configurer OpenClaw
Option A : variable d’environnement- Demander votre clé API (ou utiliser
VENICE_API_KEYexistante) - Afficher tous les modèles Venice disponibles
- Vous permettre de choisir votre modèle par défaut
- Configurer automatiquement le fournisseur
3. Vérifier la configuration
Sélection de modèle
Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez selon vos besoins :- Modèle par défaut :
venice/kimi-k2-5pour un fort raisonnement privé plus la vision. - Option haute capacité :
venice/claude-opus-4-6pour le meilleur chemin Venice anonymisé. - Confidentialité : choisissez les modèles « privés » pour une inférence entièrement privée.
- Capacité : choisissez les modèles « anonymisés » pour accéder à Claude, GPT, Gemini via le proxy Venice.
Configurer via openclaw configure
- Exécutez
openclaw configure - Sélectionnez Model/auth
- Choisissez Venice AI
Quel modèle dois-je utiliser ?
| Cas d’usage | Modèle recommandé | Pourquoi |
|---|---|---|
| Chat général (par défaut) | kimi-k2-5 | Fort raisonnement privé plus vision |
| Meilleure qualité globale | claude-opus-4-6 | Meilleure option Venice anonymisée |
| Confidentialité + code | qwen3-coder-480b-a35b-instruct | Modèle de codage privé avec grand contexte |
| Vision privée | kimi-k2-5 | Prise en charge de la vision sans quitter le mode privé |
| Rapide + économique | qwen3-4b | Modèle de raisonnement léger |
| Tâches privées complexes | deepseek-v3.2 | Fort raisonnement, mais sans prise en charge des outils Venice |
| Non censuré | venice-uncensored | Aucune restriction de contenu |
Modèles disponibles (41 au total)
Modèles privés (26) - Entièrement privés, sans journalisation
| ID du modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Par défaut, raisonnement, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Raisonnement |
llama-3.3-70b | Llama 3.3 70B | 128k | Général |
llama-3.2-3b | Llama 3.2 3B | 128k | Général |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | Général, outils désactivés |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Raisonnement |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | Général |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Codage |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Codage |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Raisonnement, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | Général |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Rapide, raisonnement |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Raisonnement, outils désactivés |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Non censuré, outils désactivés |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | Général |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | Général |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Raisonnement |
zai-org-glm-4.6 | GLM 4.6 | 198k | Général |
zai-org-glm-4.7 | GLM 4.7 | 198k | Raisonnement |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Raisonnement |
zai-org-glm-5 | GLM 5 | 198k | Raisonnement |
minimax-m21 | MiniMax M2.1 | 198k | Raisonnement |
minimax-m25 | MiniMax M2.5 | 198k | Raisonnement |
Modèles anonymisés (15) - Via le proxy Venice
| ID du modèle | Nom | Contexte | Fonctionnalités |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Raisonnement, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Raisonnement, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Raisonnement, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Raisonnement, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Raisonnement, vision, codage |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Raisonnement |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Raisonnement, vision, codage |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Raisonnement, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Raisonnement, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Raisonnement, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Raisonnement, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Raisonnement, codage |
Découverte des modèles
OpenClaw découvre automatiquement les modèles depuis l’API Venice lorsqueVENICE_API_KEY est défini. Si l’API est injoignable, il revient à un catalogue statique.
Le point de terminaison /models est public (aucune authentification requise pour la liste), mais l’inférence exige une clé API valide.
Streaming et prise en charge des outils
| Fonctionnalité | Prise en charge |
|---|---|
| Streaming | ✅ Tous les modèles |
| Appel de fonctions | ✅ La plupart des modèles (vérifiez supportsFunctionCalling dans l’API) |
| Vision/Images | ✅ Modèles marqués avec la fonctionnalité “Vision” |
| Mode JSON | ✅ Pris en charge via response_format |
Tarification
Venice utilise un système basé sur des crédits. Consultez venice.ai/pricing pour les tarifs actuels :- Modèles privés : coût généralement plus faible
- Modèles anonymisés : similaire à la tarification d’API directe + petit supplément Venice
Comparaison : Venice vs API directe
| Aspect | Venice (anonymisé) | API directe |
|---|---|---|
| Confidentialité | Métadonnées supprimées, anonymisé | Votre compte est lié |
| Latence | +10-50 ms (proxy) | Direct |
| Fonctionnalités | La plupart des fonctionnalités sont prises en charge | Fonctionnalités complètes |
| Facturation | Crédits Venice | Facturation du fournisseur |
Exemples d’utilisation
Dépannage
Clé API non reconnue
vapi_.
Modèle indisponible
Le catalogue de modèles Venice se met à jour dynamiquement. Exécutezopenclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.
Problèmes de connexion
L’API Venice se trouve àhttps://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.