Pular para o conteúdo principal

Venice AI (destaque da Venice)

Venice é o nosso destaque de configuração da Venice para inferência privacy-first com acesso anonimizado opcional a modelos proprietários. A Venice AI oferece inferência de IA focada em privacidade, com suporte a modelos sem censura e acesso aos principais modelos proprietários por meio do proxy anonimizado deles. Toda inferência é privada por padrão — sem treinamento com seus dados, sem registro em log.

Por que usar Venice no OpenClaw

  • Inferência privada para modelos open-source (sem logging).
  • Modelos sem censura quando você precisa deles.
  • Acesso anonimizado a modelos proprietários (Opus/GPT/Gemini) quando a qualidade importa.
  • Endpoints /v1 compatíveis com OpenAI.

Modos de privacidade

A Venice oferece dois níveis de privacidade — entender isso é essencial para escolher seu modelo:
ModoDescriçãoModelos
PrivateTotalmente privado. Prompts/respostas nunca são armazenados nem registrados em log. Efêmero.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored etc.
AnonymizedEncaminhado por proxy pela Venice com metadados removidos. O provedor subjacente (OpenAI, Anthropic, Google, xAI) vê solicitações anonimizadas.Claude, GPT, Gemini, Grok

Recursos

  • Focado em privacidade: escolha entre os modos “private” (totalmente privado) e “anonymized” (via proxy)
  • Modelos sem censura: acesso a modelos sem restrições de conteúdo
  • Acesso aos principais modelos: use Claude, GPT, Gemini e Grok via o proxy anonimizado da Venice
  • API compatível com OpenAI: endpoints /v1 padrão para integração fácil
  • Streaming: ✅ compatível em todos os modelos
  • Function calling: ✅ compatível em modelos selecionados (verifique as capacidades do modelo)
  • Vision: ✅ compatível em modelos com capacidade de visão
  • Sem limites rígidos de taxa: limitação por uso justo pode ser aplicada em casos de uso extremo

Configuração

1. Obtenha a chave de API

  1. Cadastre-se em venice.ai
  2. Vá para Settings → API Keys → Create new key
  3. Copie sua chave de API (formato: vapi_xxxxxxxxxxxx)

2. Configure o OpenClaw

Opção A: variável de ambiente
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Opção B: configuração interativa (recomendado)
openclaw onboard --auth-choice venice-api-key
Isso irá:
  1. Solicitar sua chave de API (ou usar VENICE_API_KEY existente)
  2. Mostrar todos os modelos Venice disponíveis
  3. Permitir que você escolha seu modelo padrão
  4. Configurar o provedor automaticamente
Opção C: não interativo
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Verifique a configuração

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Seleção de modelo

Após a configuração, o OpenClaw mostra todos os modelos Venice disponíveis. Escolha com base nas suas necessidades:
  • Modelo padrão: venice/kimi-k2-5 para raciocínio privado forte com vision.
  • Opção de alta capacidade: venice/claude-opus-4-6 para o caminho anonimizado Venice mais forte.
  • Privacidade: escolha modelos “private” para inferência totalmente privada.
  • Capacidade: escolha modelos “anonymized” para acessar Claude, GPT, Gemini via o proxy da Venice.
Altere seu modelo padrão a qualquer momento:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Liste todos os modelos disponíveis:
openclaw models list | grep venice

Configure via openclaw configure

  1. Execute openclaw configure
  2. Selecione Model/auth
  3. Escolha Venice AI

Qual modelo devo usar?

Caso de usoModelo recomendadoMotivo
Chat geral (padrão)kimi-k2-5Raciocínio privado forte com vision
Melhor qualidade geralclaude-opus-4-6Opção Venice anonimizada mais forte
Privacidade + codingqwen3-coder-480b-a35b-instructModelo privado de coding com contexto grande
Vision privadakimi-k2-5Suporte a vision sem sair do modo private
Rápido + baratoqwen3-4bModelo leve de raciocínio
Tarefas privadas complexasdeepseek-v3.2Raciocínio forte, mas sem suporte a ferramentas da Venice
Sem censuravenice-uncensoredSem restrições de conteúdo

Modelos disponíveis (41 no total)

Modelos Private (26) - Totalmente privados, sem logging

ID do modeloNomeContextoRecursos
kimi-k2-5Kimi K2.5256kPadrão, raciocínio, vision
kimi-k2-thinkingKimi K2 Thinking256kRaciocínio
llama-3.3-70bLlama 3.3 70B128kGeral
llama-3.2-3bLlama 3.2 3B128kGeral
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kGeral, ferramentas desativadas
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRaciocínio
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kGeral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kCoding
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kCoding
qwen3-5-35b-a3bQwen3.5 35B A3B256kRaciocínio, vision
qwen3-next-80bQwen3 Next 80B256kGeral
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kRápido, raciocínio
deepseek-v3.2DeepSeek V3.2160kRaciocínio, ferramentas desativadas
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kSem censura, ferramentas desativadas
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kGeral
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kGeral
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRaciocínio
zai-org-glm-4.6GLM 4.6198kGeral
zai-org-glm-4.7GLM 4.7198kRaciocínio
zai-org-glm-4.7-flashGLM 4.7 Flash128kRaciocínio
zai-org-glm-5GLM 5198kRaciocínio
minimax-m21MiniMax M2.1198kRaciocínio
minimax-m25MiniMax M2.5198kRaciocínio

Modelos Anonymized (15) - Via proxy da Venice

ID do modeloNomeContextoRecursos
claude-opus-4-6Claude Opus 4.6 (via Venice)1MRaciocínio, vision
claude-opus-4-5Claude Opus 4.5 (via Venice)198kRaciocínio, vision
claude-sonnet-4-6Claude Sonnet 4.6 (via Venice)1MRaciocínio, vision
claude-sonnet-4-5Claude Sonnet 4.5 (via Venice)198kRaciocínio, vision
openai-gpt-54GPT-5.4 (via Venice)1MRaciocínio, vision
openai-gpt-53-codexGPT-5.3 Codex (via Venice)400kRaciocínio, vision, coding
openai-gpt-52GPT-5.2 (via Venice)256kRaciocínio
openai-gpt-52-codexGPT-5.2 Codex (via Venice)256kRaciocínio, vision, coding
openai-gpt-4o-2024-11-20GPT-4o (via Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (via Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (via Venice)1MRaciocínio, vision
gemini-3-pro-previewGemini 3 Pro (via Venice)198kRaciocínio, vision
gemini-3-flash-previewGemini 3 Flash (via Venice)256kRaciocínio, vision
grok-41-fastGrok 4.1 Fast (via Venice)1MRaciocínio, vision
grok-code-fast-1Grok Code Fast 1 (via Venice)256kRaciocínio, coding

Descoberta de modelos

O OpenClaw descobre automaticamente modelos a partir da API da Venice quando VENICE_API_KEY está definido. Se a API estiver inacessível, ele recorre a um catálogo estático. O endpoint /models é público (não requer auth para listagem), mas a inferência exige uma chave de API válida.

Suporte a streaming e ferramentas

RecursoSuporte
Streaming✅ Todos os modelos
Function calling✅ A maioria dos modelos (verifique supportsFunctionCalling na API)
Vision/Images✅ Modelos marcados com o recurso “Vision”
Modo JSON✅ Compatível via response_format

Preços

A Venice usa um sistema baseado em créditos. Consulte venice.ai/pricing para os preços atuais:
  • Modelos Private: custo geralmente mais baixo
  • Modelos Anonymized: semelhante ao preço da API direta + pequena taxa da Venice

Comparação: Venice vs API direta

AspectoVenice (Anonymized)API direta
PrivacidadeMetadados removidos, anonimizadoSua conta vinculada
Latência+10-50ms (proxy)Direta
RecursosA maioria dos recursos compatívelRecursos completos
CobrançaCréditos VeniceCobrança do provedor

Exemplos de uso

# Use o modelo private padrão
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Use modelo sem censura
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Use modelo com vision com imagem
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Use modelo de coding
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Solução de problemas

Chave de API não reconhecida

echo $VENICE_API_KEY
openclaw models list | grep venice
Verifique se a chave começa com vapi_.

Modelo não disponível

O catálogo de modelos da Venice é atualizado dinamicamente. Execute openclaw models list para ver os modelos disponíveis no momento. Alguns modelos podem ficar temporariamente offline.

Problemas de conexão

A API da Venice está em https://api.venice.ai/api/v1. Verifique se sua rede permite conexões HTTPS.

Exemplo de arquivo de config

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}