Venice AI (destaque da Venice)
Venice é o nosso destaque de configuração da Venice para inferência privacy-first com acesso anonimizado opcional a modelos proprietários. A Venice AI oferece inferência de IA focada em privacidade, com suporte a modelos sem censura e acesso aos principais modelos proprietários por meio do proxy anonimizado deles. Toda inferência é privada por padrão — sem treinamento com seus dados, sem registro em log.Por que usar Venice no OpenClaw
- Inferência privada para modelos open-source (sem logging).
- Modelos sem censura quando você precisa deles.
- Acesso anonimizado a modelos proprietários (Opus/GPT/Gemini) quando a qualidade importa.
- Endpoints
/v1compatíveis com OpenAI.
Modos de privacidade
A Venice oferece dois níveis de privacidade — entender isso é essencial para escolher seu modelo:| Modo | Descrição | Modelos |
|---|---|---|
| Private | Totalmente privado. Prompts/respostas nunca são armazenados nem registrados em log. Efêmero. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored etc. |
| Anonymized | Encaminhado por proxy pela Venice com metadados removidos. O provedor subjacente (OpenAI, Anthropic, Google, xAI) vê solicitações anonimizadas. | Claude, GPT, Gemini, Grok |
Recursos
- Focado em privacidade: escolha entre os modos “private” (totalmente privado) e “anonymized” (via proxy)
- Modelos sem censura: acesso a modelos sem restrições de conteúdo
- Acesso aos principais modelos: use Claude, GPT, Gemini e Grok via o proxy anonimizado da Venice
- API compatível com OpenAI: endpoints
/v1padrão para integração fácil - Streaming: ✅ compatível em todos os modelos
- Function calling: ✅ compatível em modelos selecionados (verifique as capacidades do modelo)
- Vision: ✅ compatível em modelos com capacidade de visão
- Sem limites rígidos de taxa: limitação por uso justo pode ser aplicada em casos de uso extremo
Configuração
1. Obtenha a chave de API
- Cadastre-se em venice.ai
- Vá para Settings → API Keys → Create new key
- Copie sua chave de API (formato:
vapi_xxxxxxxxxxxx)
2. Configure o OpenClaw
Opção A: variável de ambiente- Solicitar sua chave de API (ou usar
VENICE_API_KEYexistente) - Mostrar todos os modelos Venice disponíveis
- Permitir que você escolha seu modelo padrão
- Configurar o provedor automaticamente
3. Verifique a configuração
Seleção de modelo
Após a configuração, o OpenClaw mostra todos os modelos Venice disponíveis. Escolha com base nas suas necessidades:- Modelo padrão:
venice/kimi-k2-5para raciocínio privado forte com vision. - Opção de alta capacidade:
venice/claude-opus-4-6para o caminho anonimizado Venice mais forte. - Privacidade: escolha modelos “private” para inferência totalmente privada.
- Capacidade: escolha modelos “anonymized” para acessar Claude, GPT, Gemini via o proxy da Venice.
Configure via openclaw configure
- Execute
openclaw configure - Selecione Model/auth
- Escolha Venice AI
Qual modelo devo usar?
| Caso de uso | Modelo recomendado | Motivo |
|---|---|---|
| Chat geral (padrão) | kimi-k2-5 | Raciocínio privado forte com vision |
| Melhor qualidade geral | claude-opus-4-6 | Opção Venice anonimizada mais forte |
| Privacidade + coding | qwen3-coder-480b-a35b-instruct | Modelo privado de coding com contexto grande |
| Vision privada | kimi-k2-5 | Suporte a vision sem sair do modo private |
| Rápido + barato | qwen3-4b | Modelo leve de raciocínio |
| Tarefas privadas complexas | deepseek-v3.2 | Raciocínio forte, mas sem suporte a ferramentas da Venice |
| Sem censura | venice-uncensored | Sem restrições de conteúdo |
Modelos disponíveis (41 no total)
Modelos Private (26) - Totalmente privados, sem logging
| ID do modelo | Nome | Contexto | Recursos |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Padrão, raciocínio, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Raciocínio |
llama-3.3-70b | Llama 3.3 70B | 128k | Geral |
llama-3.2-3b | Llama 3.2 3B | 128k | Geral |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | Geral, ferramentas desativadas |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Raciocínio |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | Geral |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Coding |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Coding |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Raciocínio, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | Geral |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Rápido, raciocínio |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Raciocínio, ferramentas desativadas |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Sem censura, ferramentas desativadas |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | Geral |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | Geral |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Raciocínio |
zai-org-glm-4.6 | GLM 4.6 | 198k | Geral |
zai-org-glm-4.7 | GLM 4.7 | 198k | Raciocínio |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Raciocínio |
zai-org-glm-5 | GLM 5 | 198k | Raciocínio |
minimax-m21 | MiniMax M2.1 | 198k | Raciocínio |
minimax-m25 | MiniMax M2.5 | 198k | Raciocínio |
Modelos Anonymized (15) - Via proxy da Venice
| ID do modelo | Nome | Contexto | Recursos |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Raciocínio, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Raciocínio, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Raciocínio, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Raciocínio, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Raciocínio, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Raciocínio, vision, coding |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Raciocínio |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Raciocínio, vision, coding |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Raciocínio, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Raciocínio, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Raciocínio, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Raciocínio, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Raciocínio, coding |
Descoberta de modelos
O OpenClaw descobre automaticamente modelos a partir da API da Venice quandoVENICE_API_KEY está definido. Se a API estiver inacessível, ele recorre a um catálogo estático.
O endpoint /models é público (não requer auth para listagem), mas a inferência exige uma chave de API válida.
Suporte a streaming e ferramentas
| Recurso | Suporte |
|---|---|
| Streaming | ✅ Todos os modelos |
| Function calling | ✅ A maioria dos modelos (verifique supportsFunctionCalling na API) |
| Vision/Images | ✅ Modelos marcados com o recurso “Vision” |
| Modo JSON | ✅ Compatível via response_format |
Preços
A Venice usa um sistema baseado em créditos. Consulte venice.ai/pricing para os preços atuais:- Modelos Private: custo geralmente mais baixo
- Modelos Anonymized: semelhante ao preço da API direta + pequena taxa da Venice
Comparação: Venice vs API direta
| Aspecto | Venice (Anonymized) | API direta |
|---|---|---|
| Privacidade | Metadados removidos, anonimizado | Sua conta vinculada |
| Latência | +10-50ms (proxy) | Direta |
| Recursos | A maioria dos recursos compatível | Recursos completos |
| Cobrança | Créditos Venice | Cobrança do provedor |
Exemplos de uso
Solução de problemas
Chave de API não reconhecida
vapi_.
Modelo não disponível
O catálogo de modelos da Venice é atualizado dinamicamente. Executeopenclaw models list para ver os modelos disponíveis no momento. Alguns modelos podem ficar temporariamente offline.
Problemas de conexão
A API da Venice está emhttps://api.venice.ai/api/v1. Verifique se sua rede permite conexões HTTPS.