Venice AI
Venice AI는 개인정보 보호 중심 AI 추론을 제공하며, 검열되지 않은 모델과 익명화된 프록시를 통한 주요 독점 모델 액세스를 지원합니다. 모든 추론은 기본적으로 비공개입니다. 사용자 데이터로 학습하지 않으며, 로깅도 하지 않습니다.OpenClaw에서 Venice를 사용하는 이유
- 오픈소스 모델용 비공개 추론(로깅 없음)
- 필요할 때 사용할 수 있는 검열되지 않은 모델
- 품질이 중요할 때 Opus/GPT/Gemini 같은 독점 모델에 대한 익명화된 액세스
- OpenAI 호환
/v1엔드포인트
개인정보 보호 모드
Venice는 두 가지 개인정보 보호 수준을 제공합니다. 어떤 모델을 선택할지 결정할 때 이를 이해하는 것이 중요합니다.| Mode | Description | Models |
|---|---|---|
| Private | 완전한 비공개. 프롬프트/응답은 절대 저장되거나 기록되지 않습니다. 일시적입니다. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored 등 |
| Anonymized | 메타데이터가 제거된 상태로 Venice를 통해 프록시됩니다. 기반 provider(OpenAI, Anthropic, Google, xAI)는 익명화된 요청을 봅니다. | Claude, GPT, Gemini, Grok |
기능
- 개인정보 보호 중심: “private”(완전 비공개)와 “anonymized”(프록시) 모드 중 선택
- 검열되지 않은 모델: 콘텐츠 제한이 없는 모델에 액세스
- 주요 모델 액세스: Venice의 익명화된 프록시를 통해 Claude, GPT, Gemini, Grok 사용
- OpenAI 호환 API: 손쉬운 통합을 위한 표준
/v1엔드포인트 - 스트리밍: 모든 모델에서 지원
- 함수 호출: 일부 모델에서 지원(모델 기능 확인)
- 비전: 비전 기능이 있는 모델에서 지원
- 엄격한 rate limit 없음: 극단적인 사용량에는 공정 사용 제한이 적용될 수 있음
시작하기
API 키 가져오기
- venice.ai에서 가입합니다
- Settings > API Keys > Create new key로 이동합니다
- API 키를 복사합니다(형식:
vapi_xxxxxxxxxxxx)
OpenClaw 구성
선호하는 설정 방법을 선택하세요.이 방식은 다음을 수행합니다.
- 대화형(권장)
- 환경 변수
- 비대화형
- API 키를 묻습니다(또는 기존
VENICE_API_KEY사용) - 사용 가능한 모든 Venice 모델을 표시합니다
- 기본 모델을 선택하게 합니다
- provider를 자동으로 구성합니다
모델 선택
설정 후 OpenClaw는 사용 가능한 모든 Venice 모델을 표시합니다. 필요에 맞게 선택하세요.- 기본 모델: 강력한 비공개 reasoning과 vision을 위한
venice/kimi-k2-5 - 고성능 옵션: 가장 강력한 익명화 Venice 경로를 위한
venice/claude-opus-4-6 - 개인정보 보호: 완전한 비공개 추론에는 “private” 모델 선택
- 기능: Venice 프록시를 통해 Claude, GPT, Gemini에 액세스하려면 “anonymized” 모델 선택
openclaw configure를 실행하고 Model/auth를 선택한 다음 Venice AI를 선택할 수도 있습니다.
사용 가능한 모델(총 41개)
Private 모델(26개) — 완전 비공개, 로깅 없음
Private 모델(26개) — 완전 비공개, 로깅 없음
| Model ID | Name | Context | Features |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | 기본값, reasoning, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Reasoning |
llama-3.3-70b | Llama 3.3 70B | 128k | 일반용 |
llama-3.2-3b | Llama 3.2 3B | 128k | 일반용 |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | 일반용, 도구 비활성화 |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Reasoning |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | 일반용 |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | 코딩 |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | 코딩 |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | reasoning, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | 일반용 |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | 빠름, reasoning |
deepseek-v3.2 | DeepSeek V3.2 | 160k | reasoning, 도구 비활성화 |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | 검열 없음, 도구 비활성화 |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | 일반용 |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | 일반용 |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Reasoning |
zai-org-glm-4.6 | GLM 4.6 | 198k | 일반용 |
zai-org-glm-4.7 | GLM 4.7 | 198k | Reasoning |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Reasoning |
zai-org-glm-5 | GLM 5 | 198k | Reasoning |
minimax-m21 | MiniMax M2.1 | 198k | Reasoning |
minimax-m25 | MiniMax M2.5 | 198k | Reasoning |
Anonymized 모델(15개) — Venice 프록시 경유
Anonymized 모델(15개) — Venice 프록시 경유
| Model ID | Name | Context | Features |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Reasoning, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Reasoning, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Reasoning, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Reasoning, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Reasoning, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Reasoning, vision, coding |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Reasoning |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Reasoning, vision, coding |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Reasoning, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Reasoning, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Reasoning, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Reasoning, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Reasoning, coding |
모델 검색
VENICE_API_KEY가 설정되어 있으면 OpenClaw는 Venice API에서 모델을 자동으로 검색합니다. API에 연결할 수 없으면 정적 카탈로그로 fallback합니다.
/models 엔드포인트는 공개되어 있어 목록 조회에는 인증이 필요 없지만, 추론에는 유효한 API 키가 필요합니다.
스트리밍 및 도구 지원
| Feature | 지원 |
|---|---|
| 스트리밍 | 모든 모델 |
| 함수 호출 | 대부분의 모델(API의 supportsFunctionCalling 확인) |
| 비전/이미지 | ”Vision” 기능으로 표시된 모델 |
| JSON 모드 | response_format을 통해 지원 |
가격
Venice는 크레딧 기반 시스템을 사용합니다. 현재 요금은 venice.ai/pricing에서 확인하세요.- Private 모델: 일반적으로 더 저렴함
- Anonymized 모델: 직접 API 가격 + 소액의 Venice 수수료와 유사
Venice(익명화)와 직접 API 비교
| Aspect | Venice (Anonymized) | Direct API |
|---|---|---|
| 개인정보 보호 | 메타데이터 제거, 익명화 | 사용자 계정과 연결됨 |
| 지연 시간 | +10~50ms(프록시) | 직접 연결 |
| 기능 | 대부분의 기능 지원 | 전체 기능 |
| 과금 | Venice 크레딧 | provider 과금 |
사용 예시
문제 해결
API 키가 인식되지 않음
API 키가 인식되지 않음
vapi_로 시작하는지 확인하세요.모델을 사용할 수 없음
모델을 사용할 수 없음
Venice 모델 카탈로그는 동적으로 업데이트됩니다. 현재 사용 가능한 모델을 확인하려면
openclaw models list를 실행하세요. 일부 모델은 일시적으로 오프라인일 수 있습니다.연결 문제
연결 문제
Venice API는
https://api.venice.ai/api/v1에 있습니다. 네트워크에서 HTTPS 연결을 허용하는지 확인하세요.고급 구성
구성 파일 예시
구성 파일 예시
관련 항목
모델 선택
provider, 모델 ref, failover 동작을 선택합니다.
Venice AI
Venice AI 홈페이지와 계정 가입입니다.
API 문서
Venice API 참조 및 개발자 문서입니다.
가격
현재 Venice 크레딧 요금과 플랜입니다.