Naar hoofdinhoud gaan

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Venice AI biedt privacygerichte AI-inference met ondersteuning voor ongecensureerde modellen en toegang tot grote propriëtaire modellen via hun geanonimiseerde proxy. Alle inference is standaard privé — geen training op je gegevens, geen logging.

Waarom Venice in OpenClaw

  • Privé-inference voor open-sourcemodellen (geen logging).
  • Ongecensureerde modellen wanneer je die nodig hebt.
  • Geanonimiseerde toegang tot propriëtaire modellen (Opus/GPT/Gemini) wanneer kwaliteit belangrijk is.
  • OpenAI-compatibele /v1-endpoints.

Privacymodi

Venice biedt twee privacyniveaus — dit begrijpen is essentieel om je model te kiezen:
ModusBeschrijvingModellen
PrivéVolledig privé. Prompts/antwoorden worden nooit opgeslagen of gelogd. Tijdelijk.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, enz.
GeanonimiseerdGeproxied via Venice met verwijderde metadata. De onderliggende provider (OpenAI, Anthropic, Google, xAI) ziet geanonimiseerde verzoeken.Claude, GPT, Gemini, Grok
Geanonimiseerde modellen zijn niet volledig privé. Venice verwijdert metadata voordat er wordt doorgestuurd, maar de onderliggende provider (OpenAI, Anthropic, Google, xAI) verwerkt het verzoek nog steeds. Kies privé-modellen wanneer volledige privacy vereist is.

Functies

  • Privacygericht: Kies tussen “privé” (volledig privé) en “geanonimiseerd” (geproxied)
  • Ongecensureerde modellen: Toegang tot modellen zonder contentbeperkingen
  • Toegang tot grote modellen: Gebruik Claude, GPT, Gemini en Grok via de geanonimiseerde proxy van Venice
  • OpenAI-compatibele API: Standaard /v1-endpoints voor eenvoudige integratie
  • Streaming: Ondersteund op alle modellen
  • Function calling: Ondersteund op geselecteerde modellen (controleer modelmogelijkheden)
  • Vision: Ondersteund op modellen met vision-mogelijkheid
  • Geen harde rate limits: Fair-use-throttling kan gelden bij extreem gebruik

Aan de slag

1

Je API-sleutel ophalen

  1. Meld je aan bij venice.ai
  2. Ga naar Settings > API Keys > Create new key
  3. Kopieer je API-sleutel (formaat: vapi_xxxxxxxxxxxx)
2

OpenClaw configureren

Kies je voorkeursmethode voor installatie:
openclaw onboard --auth-choice venice-api-key
Dit zal:
  1. Vragen om je API-sleutel (of bestaande VENICE_API_KEY gebruiken)
  2. Alle beschikbare Venice-modellen tonen
  3. Je je standaardmodel laten kiezen
  4. De provider automatisch configureren
3

Installatie verifiëren

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Modelselectie

Na de installatie toont OpenClaw alle beschikbare Venice-modellen. Kies op basis van je behoeften:
  • Standaardmodel: venice/kimi-k2-5 voor sterk privé redeneren plus vision.
  • Optie met hoge capaciteit: venice/claude-opus-4-6 voor het sterkste geanonimiseerde Venice-pad.
  • Privacy: Kies “privé”-modellen voor volledig privé-inference.
  • Mogelijkheden: Kies “geanonimiseerde” modellen om toegang te krijgen tot Claude, GPT en Gemini via de proxy van Venice.
Wijzig je standaardmodel op elk moment:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Alle beschikbare modellen weergeven:
openclaw models list | grep venice
Je kunt ook openclaw configure uitvoeren, Model/auth selecteren en Venice AI kiezen.
Gebruik de onderstaande tabel om het juiste model voor je use case te kiezen.
Use caseAanbevolen modelWaarom
Algemene chat (standaard)kimi-k2-5Sterk privé redeneren plus vision
Beste algemene kwaliteitclaude-opus-4-6Sterkste geanonimiseerde Venice-optie
Privacy + coderenqwen3-coder-480b-a35b-instructPrivé codeermodel met grote context
Privé visionkimi-k2-5Vision-ondersteuning zonder de privémodus te verlaten
Snel + goedkoopqwen3-4bLichtgewicht redeneermodel
Complexe privétakendeepseek-v3.2Sterk redeneren, maar geen Venice-toolondersteuning
Ongecensureerdvenice-uncensoredGeen contentbeperkingen

Replay-gedrag van DeepSeek V4

Als Venice DeepSeek V4-modellen beschikbaar maakt, zoals venice/deepseek-v4-pro of venice/deepseek-v4-flash, vult OpenClaw de vereiste DeepSeek V4 reasoning_content-replayplaceholder in bij assistant-berichten wanneer de proxy deze weglaat. Venice weigert DeepSeeks native top-level thinking-besturing, dus OpenClaw houdt die providerspecifieke replayfix gescheiden van de thinking-besturingen van de native DeepSeek-provider.

Ingebouwde catalogus (41 totaal)

Model-IDNaamContextFuncties
kimi-k2-5Kimi K2.5256kStandaard, redeneren, vision
kimi-k2-thinkingKimi K2 Thinking256kRedeneren
llama-3.3-70bLlama 3.3 70B128kAlgemeen
llama-3.2-3bLlama 3.2 3B128kAlgemeen
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kAlgemeen, tools uitgeschakeld
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRedeneren
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kAlgemeen
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoderen
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoderen
qwen3-5-35b-a3bQwen3.5 35B A3B256kRedeneren, vision
qwen3-next-80bQwen3 Next 80B256kAlgemeen
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kSnel, redeneren
deepseek-v3.2DeepSeek V3.2160kRedeneren, tools uitgeschakeld
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kOngecensureerd, tools uitgeschakeld
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kAlgemeen
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kAlgemeen
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRedeneren
zai-org-glm-4.6GLM 4.6198kAlgemeen
zai-org-glm-4.7GLM 4.7198kRedeneren
zai-org-glm-4.7-flashGLM 4.7 Flash128kRedeneren
zai-org-glm-5GLM 5198kRedeneren
minimax-m21MiniMax M2.1198kRedeneren
minimax-m25MiniMax M2.5198kRedeneren
Model-IDNaamContextFuncties
claude-opus-4-6Claude Opus 4.6 (via Venice)1MRedeneren, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kRedeneren, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MRedeneren, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kRedeneren, vision
openai-gpt-54GPT-5.4 (via Venice)1MRedeneren, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kRedeneren, vision, coderen
openai-gpt-52GPT-5.2 (via Venice)256kRedeneren
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kRedeneren, vision, coderen
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MRedeneren, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kRedeneren, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kRedeneren, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MRedeneren, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kRedeneren, coderen

Modeldetectie

OpenClaw detecteert automatisch modellen via de Venice-API wanneer VENICE_API_KEY is ingesteld. Als de API onbereikbaar is, valt het terug op een statische catalogus. Het /models-endpoint is openbaar (geen auth nodig om te lijsten), maar inference vereist een geldige API-sleutel.

Streaming en toolondersteuning

FunctieOndersteuning
StreamingAlle modellen
FunctieaanroepDe meeste modellen (controleer supportsFunctionCalling in API)
Vision/ImagesModellen gemarkeerd met de functie “Vision”
JSON-modusOndersteund via response_format

Prijzen

Venice gebruikt een systeem op basis van credits. Bekijk venice.ai/pricing voor actuele tarieven:
  • Privémodellen: Over het algemeen lagere kosten
  • Geanonimiseerde modellen: Vergelijkbaar met directe API-prijzen + kleine Venice-toeslag

Venice (geanonimiseerd) versus directe API

AspectVenice (geanonimiseerd)Directe API
PrivacyMetadata verwijderd, geanonimiseerdJe account is gekoppeld
Latentie+10-50 ms (proxy)Direct
FunctiesDe meeste functies ondersteundVolledige functies
FactureringVenice-creditsProviderfacturering

Gebruiksvoorbeelden

# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Probleemoplossing

echo $VENICE_API_KEY
openclaw models list | grep venice
Zorg ervoor dat de sleutel begint met vapi_.
De Venice-modelcatalogus wordt dynamisch bijgewerkt. Voer openclaw models list uit om de momenteel beschikbare modellen te bekijken. Sommige modellen kunnen tijdelijk offline zijn.
De Venice API staat op https://api.venice.ai/api/v1. Zorg ervoor dat je netwerk HTTPS-verbindingen toestaat.
Meer hulp: Probleemoplossing en FAQ.

Geavanceerde configuratie

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Gerelateerd

Model selection

Providers, modelreferenties en failovergedrag kiezen.

Venice AI

Startpagina van Venice AI en accountregistratie.

API documentation

Venice API-referentie en ontwikkelaarsdocumentatie.

Pricing

Actuele Venice-credittarieven en abonnementen.