Passer au contenu principal

Venice AI

Venice AI fournit une inférence IA axée sur la confidentialité avec prise en charge de modèles non censurés et accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — aucun entraînement sur vos données, aucune journalisation.

Pourquoi Venice dans OpenClaw

  • Inférence privée pour les modèles open source (sans journalisation).
  • Modèles non censurés lorsque vous en avez besoin.
  • Accès anonymisé à des modèles propriétaires (Opus/GPT/Gemini) lorsque la qualité prime.
  • Points de terminaison /v1 compatibles OpenAI.

Modes de confidentialité

Venice propose deux niveaux de confidentialité — les comprendre est essentiel pour choisir votre modèle :
ModeDescriptionModels
PrivateEntièrement privé. Les prompts/réponses ne sont jamais stockés ni journalisés. Éphémère.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
AnonymizedTransit via Venice avec métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées.Claude, GPT, Gemini, Grok
Les modèles anonymisés ne sont pas entièrement privés. Venice supprime les métadonnées avant le transfert, mais le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) traite tout de même la requête. Choisissez les modèles Private lorsque la confidentialité complète est requise.

Fonctionnalités

  • Axé sur la confidentialité : choisissez entre les modes « private » (entièrement privé) et « anonymized » (via proxy)
  • Modèles non censurés : accès à des modèles sans restrictions de contenu
  • Accès aux grands modèles : utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
  • API compatible OpenAI : points de terminaison /v1 standard pour une intégration facile
  • Streaming : pris en charge sur tous les modèles
  • Appel de fonctions : pris en charge sur certains modèles (vérifiez les capacités du modèle)
  • Vision : prise en charge sur les modèles disposant de capacités de vision
  • Aucune limite stricte de débit : un bridage d’usage raisonnable peut s’appliquer en cas d’usage extrême

Prise en main

1

Obtenir votre clé d’API

  1. Inscrivez-vous sur venice.ai
  2. Allez dans Settings > API Keys > Create new key
  3. Copiez votre clé d’API (format : vapi_xxxxxxxxxxxx)
2

Configurer OpenClaw

Choisissez votre méthode de configuration préférée :
openclaw onboard --auth-choice venice-api-key
Cela va :
  1. demander votre clé d’API (ou utiliser VENICE_API_KEY existante)
  2. afficher tous les modèles Venice disponibles
  3. vous permettre de choisir votre modèle par défaut
  4. configurer automatiquement le fournisseur
3

Vérifier la configuration

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Sélection du modèle

Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez selon vos besoins :
  • Modèle par défaut : venice/kimi-k2-5 pour un raisonnement privé puissant avec vision.
  • Option à haute capacité : venice/claude-opus-4-6 pour le meilleur parcours Venice anonymisé.
  • Confidentialité : choisissez les modèles « private » pour une inférence entièrement privée.
  • Capacité : choisissez les modèles « anonymized » pour accéder à Claude, GPT, Gemini via le proxy de Venice.
Modifiez votre modèle par défaut à tout moment :
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Lister tous les modèles disponibles :
openclaw models list | grep venice
Vous pouvez également exécuter openclaw configure, sélectionner Model/auth, puis choisir Venice AI.
Utilisez le tableau ci-dessous pour choisir le bon modèle selon votre cas d’usage.
Use CaseRecommended ModelWhy
General chat (default)kimi-k2-5Raisonnement privé puissant avec vision
Best overall qualityclaude-opus-4-6Option Venice anonymisée la plus puissante
Privacy + codingqwen3-coder-480b-a35b-instructModèle de code privé avec grand contexte
Private visionkimi-k2-5Prise en charge de la vision sans quitter le mode privé
Fast + cheapqwen3-4bModèle de raisonnement léger
Complex private tasksdeepseek-v3.2Raisonnement puissant, mais sans prise en charge des outils Venice
Uncensoredvenice-uncensoredAucune restriction de contenu

Modèles disponibles (41 au total)

Model IDNameContextFeatures
kimi-k2-5Kimi K2.5256kPar défaut, raisonnement, vision
kimi-k2-thinkingKimi K2 Thinking256kRaisonnement
llama-3.3-70bLlama 3.3 70B128kGénéral
llama-3.2-3bLlama 3.2 3B128kGénéral
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGénéral, outils désactivés
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRaisonnement
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGénéral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCode
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCode
qwen3-5-35b-a3bQwen3.5 35B A3B256kRaisonnement, vision
qwen3-next-80bQwen3 Next 80B256kGénéral
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kRapide, raisonnement
deepseek-v3.2DeepSeek V3.2160kRaisonnement, outils désactivés
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kNon censuré, outils désactivés
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGénéral
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGénéral
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRaisonnement
zai-org-glm-4.6GLM 4.6198kGénéral
zai-org-glm-4.7GLM 4.7198kRaisonnement
zai-org-glm-4.7-flashGLM 4.7 Flash128kRaisonnement
zai-org-glm-5GLM 5198kRaisonnement
minimax-m21MiniMax M2.1198kRaisonnement
minimax-m25MiniMax M2.5198kRaisonnement
Model IDNameContextFeatures
claude-opus-4-6Claude Opus 4.6 (via Venice)1MRaisonnement, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kRaisonnement, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MRaisonnement, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kRaisonnement, vision
openai-gpt-54GPT-5.4 (via Venice)1MRaisonnement, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kRaisonnement, vision, code
openai-gpt-52GPT-5.2 (via Venice)256kRaisonnement
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kRaisonnement, vision, code
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MRaisonnement, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kRaisonnement, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kRaisonnement, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MRaisonnement, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kRaisonnement, code

Découverte des modèles

OpenClaw découvre automatiquement les modèles depuis l’API Venice lorsque VENICE_API_KEY est défini. Si l’API est inaccessible, il revient à un catalogue statique. Le point de terminaison /models est public (aucune authentification requise pour lister les modèles), mais l’inférence nécessite une clé d’API valide.

Streaming et prise en charge des outils

FeatureSupport
StreamingTous les modèles
Function callingLa plupart des modèles (vérifiez supportsFunctionCalling dans l’API)
Vision/ImagesModèles marqués avec la fonctionnalité « Vision »
JSON modePris en charge via response_format

Tarification

Venice utilise un système basé sur des crédits. Consultez venice.ai/pricing pour les tarifs actuels :
  • Modèles privés : coût généralement plus faible
  • Modèles anonymisés : similaire à la tarification API directe + petits frais Venice

Venice (anonymisé) vs API directe

AspectVenice (anonymisé)API directe
PrivacyMétadonnées supprimées, anonymiséVotre compte est lié
Latency+10-50 ms (proxy)Directe
FeaturesLa plupart des fonctionnalités sont prises en chargeFonctionnalités complètes
BillingCrédits VeniceFacturation du fournisseur

Exemples d’utilisation

# Utiliser le modèle privé par défaut
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Utiliser Claude Opus via Venice (anonymisé)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Utiliser un modèle non censuré
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Utiliser un modèle de vision avec une image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Utiliser un modèle de code
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Dépannage

echo $VENICE_API_KEY
openclaw models list | grep venice
Assurez-vous que la clé commence par vapi_.
Le catalogue de modèles Venice se met à jour dynamiquement. Exécutez openclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.
L’API Venice se trouve à https://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.
Plus d’aide : Troubleshooting et FAQ.

Configuration avancée

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Connexe

Model selection

Choisir les fournisseurs, les références de modèles et le comportement de basculement.

Venice AI

Page d’accueil de Venice AI et création de compte.

API documentation

Référence de l’API Venice et documentation développeur.

Pricing

Tarifs et forfaits actuels des crédits Venice.