Zum Hauptinhalt springen

Venice AI

Venice AI bietet datenschutzorientierte KI-Inferenz mit Unterstützung für unzensierte Modelle und Zugriff auf große proprietäre Modelle über ihren anonymisierten Proxy. Alle Inferenz ist standardmäßig privat — kein Training mit Ihren Daten, kein Logging.

Warum Venice in OpenClaw

  • Private Inferenz für Open-Source-Modelle (ohne Logging).
  • Unzensierte Modelle, wenn Sie sie benötigen.
  • Anonymisierter Zugriff auf proprietäre Modelle (Opus/GPT/Gemini), wenn Qualität entscheidend ist.
  • OpenAI-kompatible /v1-Endpunkte.

Datenschutzmodi

Venice bietet zwei Datenschutzstufen — das Verständnis davon ist entscheidend für die Wahl Ihres Modells:
ModusBeschreibungModelle
PrivatVollständig privat. Prompts/Antworten werden niemals gespeichert oder protokolliert. Ephemer.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored usw.
AnonymisiertÜber Venice mit entfernten Metadaten weitergeleitet. Der zugrunde liegende Provider (OpenAI, Anthropic, Google, xAI) sieht anonymisierte Anfragen.Claude, GPT, Gemini, Grok
Anonymisierte Modelle sind nicht vollständig privat. Venice entfernt Metadaten vor der Weiterleitung, aber der zugrunde liegende Provider (OpenAI, Anthropic, Google, xAI) verarbeitet die Anfrage weiterhin. Wählen Sie Private Modelle, wenn vollständiger Datenschutz erforderlich ist.

Funktionen

  • Datenschutzorientiert: Wählen Sie zwischen den Modi „private“ (vollständig privat) und „anonymized“ (proxied)
  • Unzensierte Modelle: Zugriff auf Modelle ohne Inhaltsbeschränkungen
  • Zugriff auf große Modelle: Nutzen Sie Claude, GPT, Gemini und Grok über den anonymisierten Proxy von Venice
  • OpenAI-kompatible API: Standard-/v1-Endpunkte für einfache Integration
  • Streaming: Auf allen Modellen unterstützt
  • Function Calling: Auf ausgewählten Modellen unterstützt (prüfen Sie die Modell-Capabilities)
  • Vision: Auf Modellen mit Vision-Capability unterstützt
  • Keine harten Rate Limits: Fair-Use-Drosselung kann bei extremer Nutzung greifen

Erste Schritte

1

Ihren API-Schlüssel abrufen

  1. Registrieren Sie sich bei venice.ai
  2. Gehen Sie zu Settings > API Keys > Create new key
  3. Kopieren Sie Ihren API-Schlüssel (Format: vapi_xxxxxxxxxxxx)
2

OpenClaw konfigurieren

Wählen Sie Ihre bevorzugte Einrichtungsmethode:
openclaw onboard --auth-choice venice-api-key
Dies wird:
  1. Nach Ihrem API-Schlüssel fragen (oder vorhandenes VENICE_API_KEY verwenden)
  2. Alle verfügbaren Venice-Modelle anzeigen
  3. Sie Ihr Standardmodell auswählen lassen
  4. Den Provider automatisch konfigurieren
3

Einrichtung prüfen

openclaw agent --model venice/kimi-k2-5 --message "Hallo, funktionieren Sie?"

Modellauswahl

Nach der Einrichtung zeigt OpenClaw alle verfügbaren Venice-Modelle an. Wählen Sie je nach Bedarf:
  • Standardmodell: venice/kimi-k2-5 für starke private Reasoning-Leistung plus Vision.
  • Option mit hoher Leistungsfähigkeit: venice/claude-opus-4-6 für den stärksten anonymisierten Venice-Pfad.
  • Datenschutz: Wählen Sie „private“ Modelle für vollständig private Inferenz.
  • Capability: Wählen Sie „anonymized“ Modelle, um über den Proxy von Venice auf Claude, GPT und Gemini zuzugreifen.
Ändern Sie Ihr Standardmodell jederzeit:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Alle verfügbaren Modelle auflisten:
openclaw models list | grep venice
Sie können auch openclaw configure ausführen, Model/auth auswählen und dann Venice AI wählen.
Verwenden Sie die Tabelle unten, um das richtige Modell für Ihren Anwendungsfall auszuwählen.
AnwendungsfallEmpfohlenes ModellWarum
Allgemeiner Chat (Standard)kimi-k2-5Starkes privates Reasoning plus Vision
Beste Gesamtqualitätclaude-opus-4-6Stärkste anonymisierte Venice-Option
Datenschutz + Codingqwen3-coder-480b-a35b-instructPrivates Coding-Modell mit großem Kontext
Private Visionkimi-k2-5Vision-Unterstützung ohne den privaten Modus zu verlassen
Schnell + günstigqwen3-4bSchlankes Reasoning-Modell
Komplexe private Aufgabendeepseek-v3.2Starkes Reasoning, aber keine Venice-Tool-Unterstützung
Unzensiertvenice-uncensoredKeine Inhaltsbeschränkungen

Verfügbare Modelle (insgesamt 41)

Modell-IDNameKontextFunktionen
kimi-k2-5Kimi K2.5256kStandard, Reasoning, Vision
kimi-k2-thinkingKimi K2 Thinking256kReasoning
llama-3.3-70bLlama 3.3 70B128kAllgemein
llama-3.2-3bLlama 3.2 3B128kAllgemein
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kAllgemein, Tools deaktiviert
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kReasoning
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kAllgemein
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoding
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoding
qwen3-5-35b-a3bQwen3.5 35B A3B256kReasoning, Vision
qwen3-next-80bQwen3 Next 80B256kAllgemein
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kSchnell, Reasoning
deepseek-v3.2DeepSeek V3.2160kReasoning, Tools deaktiviert
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kUnzensiert, Tools deaktiviert
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kAllgemein
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kAllgemein
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kReasoning
zai-org-glm-4.6GLM 4.6198kAllgemein
zai-org-glm-4.7GLM 4.7198kReasoning
zai-org-glm-4.7-flashGLM 4.7 Flash128kReasoning
zai-org-glm-5GLM 5198kReasoning
minimax-m21MiniMax M2.1198kReasoning
minimax-m25MiniMax M2.5198kReasoning
Modell-IDNameKontextFunktionen
claude-opus-4-6Claude Opus 4.6 (über Venice)1MReasoning, Vision
claude-opus-4-5Claude Opus 4.5 (über Venice)198kReasoning, Vision
claude-sonnet-4-6Claude Sonnet 4.6 (über Venice)1MReasoning, Vision
claude-sonnet-4-5Claude Sonnet 4.5 (über Venice)198kReasoning, Vision
openai-gpt-54GPT-5.4 (über Venice)1MReasoning, Vision
openai-gpt-53-codexGPT-5.3 Codex (über Venice)400kReasoning, Vision, Coding
openai-gpt-52GPT-5.2 (über Venice)256kReasoning
openai-gpt-52-codexGPT-5.2 Codex (über Venice)256kReasoning, Vision, Coding
openai-gpt-4o-2024-11-20GPT-4o (über Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (über Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (über Venice)1MReasoning, Vision
gemini-3-pro-previewGemini 3 Pro (über Venice)198kReasoning, Vision
gemini-3-flash-previewGemini 3 Flash (über Venice)256kReasoning, Vision
grok-41-fastGrok 4.1 Fast (über Venice)1MReasoning, Vision
grok-code-fast-1Grok Code Fast 1 (über Venice)256kReasoning, Coding

Modellerkennung

OpenClaw erkennt Modelle automatisch über die Venice-API, wenn VENICE_API_KEY gesetzt ist. Wenn die API nicht erreichbar ist, fällt es auf einen statischen Katalog zurück. Der Endpunkt /models ist öffentlich (keine Auth für das Auflisten erforderlich), aber Inferenz erfordert einen gültigen API-Schlüssel.

Streaming- und Tool-Unterstützung

FunktionUnterstützung
StreamingAlle Modelle
Function CallingDie meisten Modelle (prüfen Sie supportsFunctionCalling in der API)
Vision/BilderModelle, die mit der Funktion „Vision“ markiert sind
JSON-ModusUnterstützt über response_format

Preise

Venice verwendet ein kreditbasiertes System. Prüfen Sie venice.ai/pricing auf aktuelle Preise:
  • Private Modelle: Im Allgemeinen niedrigere Kosten
  • Anonymisierte Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr

Venice (anonymisiert) vs. direkte API

AspektVenice (anonymisiert)Direkte API
DatenschutzMetadaten entfernt, anonymisiertMit Ihrem Konto verknüpft
Latenz+10-50ms (Proxy)Direkt
FunktionenDie meisten Funktionen unterstütztVolle Funktionen
AbrechnungVenice-GuthabenAnbieterabrechnung

Nutzungsbeispiele

# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Fehlerbehebung

echo $VENICE_API_KEY
openclaw models list | grep venice
Stellen Sie sicher, dass der Schlüssel mit vapi_ beginnt.
Der Venice-Modellkatalog wird dynamisch aktualisiert. Führen Sie openclaw models list aus, um die aktuell verfügbaren Modelle zu sehen. Einige Modelle können vorübergehend offline sein.
Die Venice-API befindet sich unter https://api.venice.ai/api/v1. Stellen Sie sicher, dass Ihr Netzwerk HTTPS-Verbindungen zulässt.
Weitere Hilfe: Fehlerbehebung und FAQ.

Erweiterte Konfiguration

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Verwandt

Modellauswahl

Auswahl von Providern, Modell-Referenzen und Failover-Verhalten.

Venice AI

Venice-AI-Homepage und Kontoanmeldung.

API-Dokumentation

Venice-API-Referenz und Entwicklerdokumentation.

Preise

Aktuelle Venice-Guthabenpreise und Tarife.