Przejdź do głównej treści

Venice AI

Venice AI zapewnia inferencję AI skoncentrowaną na prywatności z obsługą nieocenzurowanych modeli oraz dostępem do głównych modeli zamkniętych przez ich anonimizujące proxy. Cała inferencja jest domyślnie prywatna — bez trenowania na Twoich danych i bez logowania.

Dlaczego Venice w OpenClaw

  • Prywatna inferencja dla modeli open source (bez logowania).
  • Nieocenzurowane modele, gdy ich potrzebujesz.
  • Anonimizowany dostęp do modeli zamkniętych (Opus/GPT/Gemini), gdy liczy się jakość.
  • Endpointy /v1 zgodne z OpenAI.

Tryby prywatności

Venice oferuje dwa poziomy prywatności — zrozumienie tej różnicy jest kluczowe przy wyborze modelu:
TrybOpisModele
PrywatnyW pełni prywatny. Prompty/odpowiedzi nigdy nie są przechowywane ani logowane. Efemeryczny.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored itd.
AnonimizowanyPrzekazywany przez Venice z usuniętymi metadanymi. Bazowy dostawca (OpenAI, Anthropic, Google, xAI) widzi zanonimizowane żądania.Claude, GPT, Gemini, Grok
Modele anonimizowane nie są w pełni prywatne. Venice usuwa metadane przed przekazaniem dalej, ale bazowy dostawca (OpenAI, Anthropic, Google, xAI) nadal przetwarza żądanie. Wybieraj modele Prywatne, gdy wymagana jest pełna prywatność.

Funkcje

  • Podejście skoncentrowane na prywatności: wybór między trybami „prywatnym” (w pełni prywatny) i „anonimizowanym” (przez proxy)
  • Nieocenzurowane modele: dostęp do modeli bez ograniczeń treści
  • Dostęp do głównych modeli: używaj Claude, GPT, Gemini i Grok przez anonimizujące proxy Venice
  • API zgodne z OpenAI: standardowe endpointy /v1 dla łatwej integracji
  • Streaming: obsługiwany we wszystkich modelach
  • Function calling: obsługiwane w wybranych modelach (sprawdź możliwości modelu)
  • Vision: obsługiwane w modelach z możliwością vision
  • Brak twardych limitów szybkości: przy skrajnym użyciu może obowiązywać dławienie fair-use

Pierwsze kroki

1

Pobierz swój klucz API

  1. Zarejestruj się na venice.ai
  2. Przejdź do Settings > API Keys > Create new key
  3. Skopiuj swój klucz API (format: vapi_xxxxxxxxxxxx)
2

Skonfiguruj OpenClaw

Wybierz preferowaną metodę konfiguracji:
openclaw onboard --auth-choice venice-api-key
To:
  1. Poprosi o Twój klucz API (lub użyje istniejącego VENICE_API_KEY)
  2. Pokaże wszystkie dostępne modele Venice
  3. Pozwoli wybrać domyślny model
  4. Automatycznie skonfiguruje dostawcę
3

Zweryfikuj konfigurację

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Wybór modelu

Po konfiguracji OpenClaw pokazuje wszystkie dostępne modele Venice. Wybierz je zależnie od swoich potrzeb:
  • Model domyślny: venice/kimi-k2-5 dla mocnego prywatnego rozumowania plus vision.
  • Opcja o najwyższych możliwościach: venice/claude-opus-4-6 dla najmocniejszej anonimizowanej ścieżki Venice.
  • Prywatność: wybieraj modele „private” dla w pełni prywatnej inferencji.
  • Możliwości: wybieraj modele „anonymized”, aby uzyskać dostęp do Claude, GPT i Gemini przez proxy Venice.
W każdej chwili możesz zmienić swój domyślny model:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Wyświetl wszystkie dostępne modele:
openclaw models list | grep venice
Możesz też uruchomić openclaw configure, wybrać Model/auth i następnie Venice AI.
Użyj poniższej tabeli, aby wybrać właściwy model do swojego zastosowania.
ZastosowanieZalecany modelDlaczego
Ogólny czat (domyślnie)kimi-k2-5Mocne prywatne rozumowanie plus vision
Najlepsza ogólna jakośćclaude-opus-4-6Najmocniejsza anonimizowana opcja Venice
Prywatność + kodowanieqwen3-coder-480b-a35b-instructPrywatny model do kodowania z dużym kontekstem
Prywatne visionkimi-k2-5Obsługa vision bez opuszczania trybu prywatnego
Szybko i tanioqwen3-4bLekki model rozumujący
Złożone zadania prywatnedeepseek-v3.2Mocne rozumowanie, ale bez obsługi narzędzi Venice
Nieocenzurowanyvenice-uncensoredBez ograniczeń treści

Dostępne modele (łącznie 41)

ID modeluNazwaKontekstFunkcje
kimi-k2-5Kimi K2.5256kDomyślny, rozumowanie, vision
kimi-k2-thinkingKimi K2 Thinking256kRozumowanie
llama-3.3-70bLlama 3.3 70B128kOgólne
llama-3.2-3bLlama 3.2 3B128kOgólne
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kOgólne, narzędzia wyłączone
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kRozumowanie
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kOgólne
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kKodowanie
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kKodowanie
qwen3-5-35b-a3bQwen3.5 35B A3B256kRozumowanie, vision
qwen3-next-80bQwen3 Next 80B256kOgólne
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kSzybki, rozumowanie
deepseek-v3.2DeepSeek V3.2160kRozumowanie, narzędzia wyłączone
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kNieocenzurowany, narzędzia wyłączone
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kOgólne
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kOgólne
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kRozumowanie
zai-org-glm-4.6GLM 4.6198kOgólne
zai-org-glm-4.7GLM 4.7198kRozumowanie
zai-org-glm-4.7-flashGLM 4.7 Flash128kRozumowanie
zai-org-glm-5GLM 5198kRozumowanie
minimax-m21MiniMax M2.1198kRozumowanie
minimax-m25MiniMax M2.5198kRozumowanie
ID modeluNazwaKontekstFunkcje
claude-opus-4-6Claude Opus 4.6 (przez Venice)1MRozumowanie, vision
claude-opus-4-5Claude Opus 4.5 (przez Venice)198kRozumowanie, vision
claude-sonnet-4-6Claude Sonnet 4.6 (przez Venice)1MRozumowanie, vision
claude-sonnet-4-5Claude Sonnet 4.5 (przez Venice)198kRozumowanie, vision
openai-gpt-54GPT-5.4 (przez Venice)1MRozumowanie, vision
openai-gpt-53-codexGPT-5.3 Codex (przez Venice)400kRozumowanie, vision, kodowanie
openai-gpt-52GPT-5.2 (przez Venice)256kRozumowanie
openai-gpt-52-codexGPT-5.2 Codex (przez Venice)256kRozumowanie, vision, kodowanie
openai-gpt-4o-2024-11-20GPT-4o (przez Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (przez Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (przez Venice)1MRozumowanie, vision
gemini-3-pro-previewGemini 3 Pro (przez Venice)198kRozumowanie, vision
gemini-3-flash-previewGemini 3 Flash (przez Venice)256kRozumowanie, vision
grok-41-fastGrok 4.1 Fast (przez Venice)1MRozumowanie, vision
grok-code-fast-1Grok Code Fast 1 (przez Venice)256kRozumowanie, kodowanie

Wykrywanie modeli

OpenClaw automatycznie wykrywa modele z API Venice, gdy ustawione jest VENICE_API_KEY. Jeśli API jest nieosiągalne, następuje fallback do statycznego katalogu. Endpoint /models jest publiczny (nie wymaga uwierzytelniania do listowania), ale inferencja wymaga prawidłowego klucza API.

Streaming i obsługa narzędzi

FunkcjaObsługa
StreamingWszystkie modele
Function callingWiększość modeli (sprawdź supportsFunctionCalling w API)
Vision/ImagesModele oznaczone funkcją „Vision”
Tryb JSONObsługiwany przez response_format

Ceny

Venice używa systemu opartego na kredytach. Aktualne stawki sprawdzisz na venice.ai/pricing:
  • Modele prywatne: zazwyczaj niższy koszt
  • Modele anonimizowane: ceny zbliżone do bezpośredniego API + niewielka opłata Venice

Venice (anonimizowane) vs bezpośrednie API

AspektVenice (anonimizowane)Bezpośrednie API
PrywatnośćMetadane usunięte, anonimizacjaTwoje konto powiązane
Opóźnienie+10-50 ms (proxy)Bezpośrednio
FunkcjeObsługiwana większość funkcjiPełne funkcje
RozliczeniaKredyty VeniceRozliczenia dostawcy

Przykłady użycia

# Użyj domyślnego modelu prywatnego
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Użyj Claude Opus przez Venice (anonimizowane)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Użyj nieocenzurowanego modelu
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Użyj modelu vision z obrazem
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Użyj modelu do kodowania
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Rozwiązywanie problemów

echo $VENICE_API_KEY
openclaw models list | grep venice
Upewnij się, że klucz zaczyna się od vapi_.
Katalog modeli Venice aktualizuje się dynamicznie. Uruchom openclaw models list, aby zobaczyć aktualnie dostępne modele. Niektóre modele mogą być tymczasowo offline.
API Venice znajduje się pod adresem https://api.venice.ai/api/v1. Upewnij się, że Twoja sieć pozwala na połączenia HTTPS.
Więcej pomocy: Rozwiązywanie problemów i FAQ.

Konfiguracja zaawansowana

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Powiązane

Wybór modelu

Wybór dostawców, referencji modeli i zachowania failover.

Venice AI

Strona główna Venice AI i rejestracja konta.

Dokumentacja API

Dokumentacja API Venice i materiały dla deweloperów.

Cennik

Aktualne stawki kredytowe i plany Venice.