Przejdź do głównej treści

Venice AI (wyróżniona konfiguracja Venice)

Venice to nasza wyróżniona konfiguracja Venice do inferencji nastawionej na prywatność, z opcjonalnym anonimizowanym dostępem do modeli własnościowych. Venice AI zapewnia inferencję AI skoncentrowaną na prywatności, z obsługą modeli bez cenzury i dostępem do głównych modeli własnościowych przez ich anonimizowane proxy. Cała inferencja jest domyślnie prywatna — brak trenowania na Twoich danych, brak logowania.

Dlaczego Venice w OpenClaw

  • Prywatna inferencja dla modeli open source (bez logowania).
  • Modele bez cenzury, gdy ich potrzebujesz.
  • Anonimizowany dostęp do modeli własnościowych (Opus/GPT/Gemini), gdy liczy się jakość.
  • Endpointy /v1 zgodne z OpenAI.

Tryby prywatności

Venice oferuje dwa poziomy prywatności — zrozumienie tego ma kluczowe znaczenie przy wyborze modelu:
TrybOpisModele
PrywatnyW pełni prywatny. Prompty/odpowiedzi nigdy nie są przechowywane ani logowane. Efemeryczny.Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored itd.
AnonimizowanyPrzekazywany przez Venice z usuniętymi metadanymi. Bazowy dostawca (OpenAI, Anthropic, Google, xAI) widzi anonimizowane żądania.Claude, GPT, Gemini, Grok

Funkcje

  • Nastawienie na prywatność: wybór między trybami „private” (w pełni prywatny) i „anonymized” (przez proxy)
  • Modele bez cenzury: dostęp do modeli bez ograniczeń treści
  • Dostęp do głównych modeli: używanie Claude, GPT, Gemini i Grok przez anonimizowane proxy Venice
  • API zgodne z OpenAI: standardowe endpointy /v1 dla łatwej integracji
  • Strumieniowanie: ✅ obsługiwane we wszystkich modelach
  • Wywoływanie funkcji: ✅ obsługiwane w wybranych modelach (sprawdź możliwości modelu)
  • Vision: ✅ obsługiwane w modelach z funkcją vision
  • Brak sztywnych limitów szybkości: przy skrajnym użyciu może być stosowane ograniczanie fair-use

Konfiguracja

1. Pobierz klucz API

  1. Zarejestruj się na venice.ai
  2. Przejdź do Settings → API Keys → Create new key
  3. Skopiuj swój klucz API (format: vapi_xxxxxxxxxxxx)

2. Skonfiguruj OpenClaw

Opcja A: zmienna środowiskowa
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Opcja B: konfiguracja interaktywna (zalecane)
openclaw onboard --auth-choice venice-api-key
Spowoduje to:
  1. Wyświetlenie prośby o klucz API (lub użycie istniejącego VENICE_API_KEY)
  2. Pokazanie wszystkich dostępnych modeli Venice
  3. Umożliwienie wyboru modelu domyślnego
  4. Automatyczne skonfigurowanie dostawcy
Opcja C: tryb nieinteraktywny
openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Zweryfikuj konfigurację

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

Wybór modelu

Po konfiguracji OpenClaw pokazuje wszystkie dostępne modele Venice. Wybierz według swoich potrzeb:
  • Model domyślny: venice/kimi-k2-5 dla silnego prywatnego reasoning oraz vision.
  • Opcja o wysokich możliwościach: venice/claude-opus-4-6 dla najmocniejszej anonimizowanej ścieżki Venice.
  • Prywatność: wybieraj modele „private” dla w pełni prywatnej inferencji.
  • Możliwości: wybieraj modele „anonymized”, aby uzyskać dostęp do Claude, GPT, Gemini przez proxy Venice.
W dowolnym momencie zmień model domyślny:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Wyświetl wszystkie dostępne modele:
openclaw models list | grep venice

Konfiguracja przez openclaw configure

  1. Uruchom openclaw configure
  2. Wybierz Model/auth
  3. Wybierz Venice AI

Którego modelu powinienem używać?

Przypadek użyciaZalecany modelDlaczego
Ogólny czat (domyślnie)kimi-k2-5Silny prywatny reasoning oraz vision
Najlepsza ogólna jakośćclaude-opus-4-6Najmocniejsza anonimizowana opcja Venice
Prywatność + kodowanieqwen3-coder-480b-a35b-instructPrywatny model do kodowania z dużym kontekstem
Prywatne visionkimi-k2-5Obsługa vision bez opuszczania trybu prywatnego
Szybko i tanioqwen3-4bLekki model reasoning
Złożone prywatne zadaniadeepseek-v3.2Silny reasoning, ale bez obsługi narzędzi Venice
Bez cenzuryvenice-uncensoredBrak ograniczeń treści

Dostępne modele (łącznie 41)

Modele prywatne (26) — w pełni prywatne, bez logowania

Model IDNazwaKontekstFunkcje
kimi-k2-5Kimi K2.5256kDomyślny, reasoning, vision
kimi-k2-thinkingKimi K2 Thinking256kReasoning
llama-3.3-70bLlama 3.3 70B128kOgólne
llama-3.2-3bLlama 3.2 3B128kOgólne
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kOgólne, narzędzia wyłączone
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kReasoning
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kOgólne
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kKodowanie
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kKodowanie
qwen3-5-35b-a3bQwen3.5 35B A3B256kReasoning, vision
qwen3-next-80bQwen3 Next 80B256kOgólne
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kSzybki, reasoning
deepseek-v3.2DeepSeek V3.2160kReasoning, narzędzia wyłączone
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kBez cenzury, narzędzia wyłączone
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kOgólne
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kOgólne
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kReasoning
zai-org-glm-4.6GLM 4.6198kOgólne
zai-org-glm-4.7GLM 4.7198kReasoning
zai-org-glm-4.7-flashGLM 4.7 Flash128kReasoning
zai-org-glm-5GLM 5198kReasoning
minimax-m21MiniMax M2.1198kReasoning
minimax-m25MiniMax M2.5198kReasoning

Modele anonimizowane (15) — przez proxy Venice

Model IDNazwaKontekstFunkcje
claude-opus-4-6Claude Opus 4.6 (przez Venice)1MReasoning, vision
claude-opus-4-5Claude Opus 4.5 (przez Venice)198kReasoning, vision
claude-sonnet-4-6Claude Sonnet 4.6 (przez Venice)1MReasoning, vision
claude-sonnet-4-5Claude Sonnet 4.5 (przez Venice)198kReasoning, vision
openai-gpt-54GPT-5.4 (przez Venice)1MReasoning, vision
openai-gpt-53-codexGPT-5.3 Codex (przez Venice)400kReasoning, vision, kodowanie
openai-gpt-52GPT-5.2 (przez Venice)256kReasoning
openai-gpt-52-codexGPT-5.2 Codex (przez Venice)256kReasoning, vision, kodowanie
openai-gpt-4o-2024-11-20GPT-4o (przez Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (przez Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (przez Venice)1MReasoning, vision
gemini-3-pro-previewGemini 3 Pro (przez Venice)198kReasoning, vision
gemini-3-flash-previewGemini 3 Flash (przez Venice)256kReasoning, vision
grok-41-fastGrok 4.1 Fast (przez Venice)1MReasoning, vision
grok-code-fast-1Grok Code Fast 1 (przez Venice)256kReasoning, kodowanie

Wykrywanie modeli

OpenClaw automatycznie wykrywa modele z API Venice, gdy ustawione jest VENICE_API_KEY. Jeśli API jest nieosiągalne, następuje powrót do statycznego katalogu. Endpoint /models jest publiczny (do wyświetlania listy nie jest wymagane uwierzytelnianie), ale inferencja wymaga prawidłowego klucza API.

Strumieniowanie i obsługa narzędzi

FunkcjaObsługa
Strumieniowanie✅ Wszystkie modele
Wywoływanie funkcji✅ Większość modeli (sprawdź supportsFunctionCalling w API)
Vision/obrazy✅ Modele oznaczone funkcją „Vision”
Tryb JSON✅ Obsługiwany przez response_format

Ceny

Venice używa systemu opartego na kredytach. Sprawdź venice.ai/pricing, aby zobaczyć aktualne stawki:
  • Modele prywatne: zazwyczaj niższy koszt
  • Modele anonimizowane: podobne do bezpośrednich cen API + niewielka opłata Venice

Porównanie: Venice vs bezpośrednie API

AspektVenice (anonimizowane)Bezpośrednie API
PrywatnośćMetadane usunięte, anonimizacjaTwoje konto jest powiązane
Opóźnienie+10-50ms (proxy)Bezpośrednio
FunkcjeWiększość funkcji obsługiwanaPełne funkcje
RozliczanieKredyty VeniceRozliczanie dostawcy

Przykłady użycia

# Użyj domyślnego modelu prywatnego
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Użyj Claude Opus przez Venice (anonimizowane)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Użyj modelu bez cenzury
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Użyj modelu vision z obrazem
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Użyj modelu do kodowania
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

Rozwiązywanie problemów

Klucz API nie jest rozpoznawany

echo $VENICE_API_KEY
openclaw models list | grep venice
Upewnij się, że klucz zaczyna się od vapi_.

Model jest niedostępny

Katalog modeli Venice jest aktualizowany dynamicznie. Uruchom openclaw models list, aby zobaczyć aktualnie dostępne modele. Niektóre modele mogą być tymczasowo offline.

Problemy z połączeniem

API Venice znajduje się pod adresem https://api.venice.ai/api/v1. Upewnij się, że Twoja sieć zezwala na połączenia HTTPS.

Przykład pliku konfiguracyjnego

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

Linki