Passer au contenu principal

Venice AI (mise en avant de Venice)

Venice est notre mise en avant de la configuration Venice pour une inférence axée d’abord sur la confidentialité, avec accès anonymisé facultatif à des modèles propriétaires. Venice AI fournit une inférence IA axée sur la confidentialité avec prise en charge de modèles non censurés et accès aux principaux modèles propriétaires via leur proxy anonymisé. Toute inférence est privée par défaut — aucun entraînement sur vos données, aucune journalisation.

Pourquoi Venice dans OpenClaw

  • Inférence privée pour les modèles open source (aucune journalisation).
  • Modèles non censurés lorsque vous en avez besoin.
  • Accès anonymisé aux modèles propriétaires (Opus/GPT/Gemini) lorsque la qualité compte.
  • Points de terminaison /v1 compatibles OpenAI.

Modes de confidentialité

Venice propose deux niveaux de confidentialité — comprendre cela est essentiel pour choisir votre modèle :
ModeDescriptionModèles
PrivéEntièrement privé. Les prompts/réponses ne sont jamais stockés ni journalisés. Éphémère.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, etc.
AnonymiséProxy via Venice avec métadonnées supprimées. Le fournisseur sous-jacent (OpenAI, Anthropic, Google, xAI) voit des requêtes anonymisées.Claude, GPT, Gemini, Grok

Fonctionnalités

  • Axé sur la confidentialité : choisissez entre les modes « privé » (entièrement privé) et « anonymisé » (via proxy)
  • Modèles non censurés : accès à des modèles sans restrictions de contenu
  • Accès aux grands modèles : utilisez Claude, GPT, Gemini et Grok via le proxy anonymisé de Venice
  • API compatible OpenAI : points de terminaison /v1 standard pour une intégration simple
  • Streaming : ✅ pris en charge sur tous les modèles
  • Appel de fonctions : ✅ pris en charge sur certains modèles (vérifiez les capacités du modèle)
  • Vision : ✅ prise en charge sur les modèles avec capacité vision
  • Pas de limites de débit strictes : une limitation en usage raisonnable peut s’appliquer en cas d’usage extrême

Configuration

1. Obtenir une clé API

  1. Inscrivez-vous sur venice.ai
  2. Accédez à Settings → API Keys → Create new key
  3. Copiez votre clé API (format : vapi_xxxxxxxxxxxx)

2. Configurer OpenClaw

Option A : variable d’environnement
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Option B : configuration interactive (recommandée)
openclaw onboard --auth-choice venice-api-key
Cela va :
  1. Demander votre clé API (ou utiliser VENICE_API_KEY existante)
  2. Afficher tous les modèles Venice disponibles
  3. Vous permettre de choisir votre modèle par défaut
  4. Configurer automatiquement le fournisseur
Option C : non interactif
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Vérifier la configuration

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Sélection de modèle

Après la configuration, OpenClaw affiche tous les modèles Venice disponibles. Choisissez selon vos besoins :
  • Modèle par défaut : venice/kimi-k2-5 pour un fort raisonnement privé plus la vision.
  • Option haute capacité : venice/claude-opus-4-6 pour le meilleur chemin Venice anonymisé.
  • Confidentialité : choisissez les modèles « privés » pour une inférence entièrement privée.
  • Capacité : choisissez les modèles « anonymisés » pour accéder à Claude, GPT, Gemini via le proxy Venice.
Changez votre modèle par défaut à tout moment :
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Lister tous les modèles disponibles :
openclaw models list | grep venice

Configurer via openclaw configure

  1. Exécutez openclaw configure
  2. Sélectionnez Model/auth
  3. Choisissez Venice AI

Quel modèle dois-je utiliser ?

Cas d’usageModèle recommandéPourquoi
Chat général (par défaut)kimi-k2-5Fort raisonnement privé plus vision
Meilleure qualité globaleclaude-opus-4-6Meilleure option Venice anonymisée
Confidentialité + codeqwen3-coder-480b-a35b-instructModèle de codage privé avec grand contexte
Vision privéekimi-k2-5Prise en charge de la vision sans quitter le mode privé
Rapide + économiqueqwen3-4bModèle de raisonnement léger
Tâches privées complexesdeepseek-v3.2Fort raisonnement, mais sans prise en charge des outils Venice
Non censurévenice-uncensoredAucune restriction de contenu

Modèles disponibles (41 au total)

Modèles privés (26) - Entièrement privés, sans journalisation

ID du modèleNomContexteFonctionnalités
kimi-k2-5Kimi K2.5256kPar défaut, raisonnement, vision
kimi-k2-thinkingKimi K2 Thinking256kRaisonnement
llama-3.3-70bLlama 3.3 70B128kGénéral
llama-3.2-3bLlama 3.2 3B128kGénéral
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGénéral, outils désactivés
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRaisonnement
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGénéral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCodage
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCodage
qwen3-5-35b-a3bQwen3.5 35B A3B256kRaisonnement, vision
qwen3-next-80bQwen3 Next 80B256kGénéral
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kRapide, raisonnement
deepseek-v3.2DeepSeek V3.2160kRaisonnement, outils désactivés
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kNon censuré, outils désactivés
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGénéral
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGénéral
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRaisonnement
zai-org-glm-4.6GLM 4.6198kGénéral
zai-org-glm-4.7GLM 4.7198kRaisonnement
zai-org-glm-4.7-flashGLM 4.7 Flash128kRaisonnement
zai-org-glm-5GLM 5198kRaisonnement
minimax-m21MiniMax M2.1198kRaisonnement
minimax-m25MiniMax M2.5198kRaisonnement

Modèles anonymisés (15) - Via le proxy Venice

ID du modèleNomContexteFonctionnalités
claude-opus-4-6Claude Opus 4.6 (via Venice)1MRaisonnement, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kRaisonnement, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MRaisonnement, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kRaisonnement, vision
openai-gpt-54GPT-5.4 (via Venice)1MRaisonnement, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kRaisonnement, vision, codage
openai-gpt-52GPT-5.2 (via Venice)256kRaisonnement
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kRaisonnement, vision, codage
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MRaisonnement, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kRaisonnement, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kRaisonnement, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MRaisonnement, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kRaisonnement, codage

Découverte des modèles

OpenClaw découvre automatiquement les modèles depuis l’API Venice lorsque VENICE_API_KEY est défini. Si l’API est injoignable, il revient à un catalogue statique. Le point de terminaison /models est public (aucune authentification requise pour la liste), mais l’inférence exige une clé API valide.

Streaming et prise en charge des outils

FonctionnalitéPrise en charge
Streaming✅ Tous les modèles
Appel de fonctions✅ La plupart des modèles (vérifiez supportsFunctionCalling dans l’API)
Vision/Images✅ Modèles marqués avec la fonctionnalité “Vision”
Mode JSON✅ Pris en charge via response_format

Tarification

Venice utilise un système basé sur des crédits. Consultez venice.ai/pricing pour les tarifs actuels :
  • Modèles privés : coût généralement plus faible
  • Modèles anonymisés : similaire à la tarification d’API directe + petit supplément Venice

Comparaison : Venice vs API directe

AspectVenice (anonymisé)API directe
ConfidentialitéMétadonnées supprimées, anonymiséVotre compte est lié
Latence+10-50 ms (proxy)Direct
FonctionnalitésLa plupart des fonctionnalités sont prises en chargeFonctionnalités complètes
FacturationCrédits VeniceFacturation du fournisseur

Exemples d’utilisation

# Utiliser le modèle privé par défaut
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Utiliser Claude Opus via Venice (anonymisé)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Utiliser un modèle non censuré
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Utiliser un modèle de vision avec image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Utiliser un modèle de codage
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Dépannage

Clé API non reconnue

echo $VENICE_API_KEY
openclaw models list | grep venice
Assurez-vous que la clé commence par vapi_.

Modèle indisponible

Le catalogue de modèles Venice se met à jour dynamiquement. Exécutez openclaw models list pour voir les modèles actuellement disponibles. Certains modèles peuvent être temporairement hors ligne.

Problèmes de connexion

L’API Venice se trouve à https://api.venice.ai/api/v1. Assurez-vous que votre réseau autorise les connexions HTTPS.

Exemple de fichier de configuration

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Liens