Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Venice AI ให้บริการ AI inference ที่เน้นความเป็นส่วนตัว พร้อมรองรับโมเดลแบบไม่ถูกเซ็นเซอร์และการเข้าถึงโมเดล proprietary รายใหญ่ผ่าน proxy แบบไม่ระบุตัวตนของตนเอง inference ทั้งหมดเป็นส่วนตัวตามค่าเริ่มต้น — ไม่มีการฝึกด้วยข้อมูลของคุณ ไม่มีการบันทึก log

ทำไมจึงใช้ Venice ใน OpenClaw

  • inference แบบส่วนตัว สำหรับโมเดล open-source (ไม่มีการบันทึก log)
  • โมเดลแบบไม่ถูกเซ็นเซอร์ เมื่อคุณต้องการ
  • การเข้าถึงแบบไม่ระบุตัวตน ไปยังโมเดล proprietary (Opus/GPT/Gemini) เมื่อคุณภาพเป็นสิ่งสำคัญ
  • endpoint /v1 ที่เข้ากันได้กับ OpenAI

โหมดความเป็นส่วนตัว

Venice มีระดับความเป็นส่วนตัวสองระดับ — การเข้าใจส่วนนี้เป็นกุญแจสำคัญในการเลือกโมเดลของคุณ:
โหมดคำอธิบายโมเดล
ส่วนตัวเป็นส่วนตัวอย่างสมบูรณ์ prompt/response จะ ไม่ถูกจัดเก็บหรือบันทึก log โดยเด็ดขาด เป็นข้อมูลชั่วคราวLlama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored, ฯลฯ
ทำให้ไม่ระบุตัวตนส่งผ่าน proxy ของ Venice โดยตัด metadata ออก provider ต้นทาง (OpenAI, Anthropic, Google, xAI) จะเห็น request แบบไม่ระบุตัวตนClaude, GPT, Gemini, Grok
โมเดลแบบไม่ระบุตัวตน ไม่ใช่ แบบส่วนตัวอย่างสมบูรณ์ Venice ตัด metadata ออกก่อนส่งต่อ แต่ provider ต้นทาง (OpenAI, Anthropic, Google, xAI) ยังคงประมวลผล request เลือกโมเดลแบบ ส่วนตัว เมื่อจำเป็นต้องมีความเป็นส่วนตัวอย่างสมบูรณ์

คุณสมบัติ

  • เน้นความเป็นส่วนตัว: เลือกระหว่างโหมด “ส่วนตัว” (ส่วนตัวอย่างสมบูรณ์) และ “ทำให้ไม่ระบุตัวตน” (ผ่าน proxy)
  • โมเดลแบบไม่ถูกเซ็นเซอร์: เข้าถึงโมเดลโดยไม่มีข้อจำกัดด้านเนื้อหา
  • เข้าถึงโมเดลรายใหญ่: ใช้ Claude, GPT, Gemini และ Grok ผ่าน proxy แบบไม่ระบุตัวตนของ Venice
  • API ที่เข้ากันได้กับ OpenAI: endpoint /v1 มาตรฐานเพื่อการผสานรวมที่ง่าย
  • การสตรีม: รองรับในทุกโมเดล
  • การเรียกใช้ฟังก์ชัน: รองรับในบางโมเดล (ตรวจสอบความสามารถของโมเดล)
  • วิสัยทัศน์: รองรับในโมเดลที่มีความสามารถด้าน vision
  • ไม่มี rate limit แบบตายตัว: อาจมีการจำกัดความเร็วตาม fair-use สำหรับการใช้งานที่สูงมาก

เริ่มต้นใช้งาน

1

รับ API key ของคุณ

  1. สมัครที่ venice.ai
  2. ไปที่ Settings > API Keys > Create new key
  3. คัดลอก API key ของคุณ (รูปแบบ: vapi_xxxxxxxxxxxx)
2

กำหนดค่า OpenClaw

เลือกวิธีตั้งค่าที่คุณต้องการ:
openclaw onboard --auth-choice venice-api-key
สิ่งนี้จะ:
  1. ถาม API key ของคุณ (หรือใช้ VENICE_API_KEY ที่มีอยู่)
  2. แสดงโมเดล Venice ทั้งหมดที่มี
  3. ให้คุณเลือกโมเดลเริ่มต้นของคุณ
  4. กำหนดค่า provider โดยอัตโนมัติ
3

ตรวจสอบการตั้งค่า

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

การเลือกโมเดล

หลังตั้งค่าแล้ว OpenClaw จะแสดงโมเดล Venice ทั้งหมดที่มี เลือกตามความต้องการของคุณ:
  • โมเดลเริ่มต้น: venice/kimi-k2-5 สำหรับการให้เหตุผลแบบส่วนตัวที่แข็งแกร่งพร้อม vision
  • ตัวเลือกความสามารถสูง: venice/claude-opus-4-6 สำหรับเส้นทาง Venice แบบไม่ระบุตัวตนที่แข็งแกร่งที่สุด
  • ความเป็นส่วนตัว: เลือกโมเดล “ส่วนตัว” สำหรับ inference ที่เป็นส่วนตัวอย่างสมบูรณ์
  • ความสามารถ: เลือกโมเดล “ทำให้ไม่ระบุตัวตน” เพื่อเข้าถึง Claude, GPT, Gemini ผ่าน proxy ของ Venice
เปลี่ยนโมเดลเริ่มต้นของคุณได้ทุกเมื่อ:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
แสดงรายการโมเดลทั้งหมดที่มี:
openclaw models list --all --provider venice
คุณยังสามารถเรียกใช้ openclaw configure เลือก Model/auth แล้วเลือก Venice AI
ใช้ตารางด้านล่างเพื่อเลือกโมเดลที่เหมาะกับกรณีใช้งานของคุณ
กรณีใช้งานโมเดลที่แนะนำเหตุผล
แชตทั่วไป (ค่าเริ่มต้น)kimi-k2-5การให้เหตุผลแบบส่วนตัวที่แข็งแกร่งพร้อม vision
คุณภาพโดยรวมดีที่สุดclaude-opus-4-6ตัวเลือก Venice แบบไม่ระบุตัวตนที่แข็งแกร่งที่สุด
ความเป็นส่วนตัว + การเขียนโค้ดqwen3-coder-480b-a35b-instructโมเดลเขียนโค้ดแบบส่วนตัวพร้อม context ขนาดใหญ่
vision แบบส่วนตัวkimi-k2-5รองรับ vision โดยไม่ออกจากโหมดส่วนตัว
เร็ว + ราคาถูกqwen3-4bโมเดลให้เหตุผลน้ำหนักเบา
งานส่วนตัวที่ซับซ้อนdeepseek-v3.2การให้เหตุผลแข็งแกร่ง แต่ไม่รองรับเครื่องมือของ Venice
ไม่ถูกเซ็นเซอร์venice-uncensoredไม่มีข้อจำกัดด้านเนื้อหา

พฤติกรรม replay ของ DeepSeek V4

หาก Venice เปิดให้ใช้โมเดล DeepSeek V4 เช่น venice/deepseek-v4-pro หรือ venice/deepseek-v4-flash OpenClaw จะเติม placeholder สำหรับ replay reasoning_content ของ DeepSeek V4 ที่จำเป็นในข้อความ assistant เมื่อ proxy ละไว้ Venice ปฏิเสธการควบคุม thinking ระดับบนสุดแบบ native ของ DeepSeek ดังนั้น OpenClaw จึงแยกการแก้ไข replay เฉพาะ provider นี้ออกจากการควบคุม thinking ของ provider DeepSeek แบบ native

catalog ในตัว (รวม 41 รายการ)

Model IDชื่อContextคุณสมบัติ
kimi-k2-5Kimi K2.5256kค่าเริ่มต้น, การให้เหตุผล, vision
kimi-k2-thinkingKimi K2 Thinking256kการให้เหตุผล
llama-3.3-70bLlama 3.3 70B128kทั่วไป
llama-3.2-3bLlama 3.2 3B128kทั่วไป
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128kทั่วไป, ปิดใช้งานเครื่องมือ
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128kการให้เหตุผล
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128kทั่วไป
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256kการเขียนโค้ด
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256kการเขียนโค้ด
qwen3-5-35b-a3bQwen3.5 35B A3B256kการให้เหตุผล, vision
qwen3-next-80bQwen3 Next 80B256kทั่วไป
qwen3-vl-235b-a22bQwen3 VL 235B (Vision)256kVision
qwen3-4bVenice Small (Qwen3 4B)32kเร็ว, การให้เหตุผล
deepseek-v3.2DeepSeek V3.2160kการให้เหตุผล, ปิดใช้งานเครื่องมือ
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32kไม่ถูกเซ็นเซอร์, ปิดใช้งานเครื่องมือ
mistral-31-24bVenice Medium (Mistral)128kVision
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B128kทั่วไป
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128kทั่วไป
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128kการให้เหตุผล
zai-org-glm-4.6GLM 4.6198kทั่วไป
zai-org-glm-4.7GLM 4.7198kการให้เหตุผล
zai-org-glm-4.7-flashGLM 4.7 Flash128kการให้เหตุผล
zai-org-glm-5GLM 5198kการให้เหตุผล
minimax-m21MiniMax M2.1198kการให้เหตุผล
minimax-m25MiniMax M2.5198kการให้เหตุผล
Model IDชื่อContextคุณสมบัติ
claude-opus-4-6Claude Opus 4.6 (ผ่าน Venice)1Mการให้เหตุผล, vision
claude-opus-4-5Claude Opus 4.5 (ผ่าน Venice)198kการให้เหตุผล, vision
claude-sonnet-4-6Claude Sonnet 4.6 (ผ่าน Venice)1Mการให้เหตุผล, vision
claude-sonnet-4-5Claude Sonnet 4.5 (ผ่าน Venice)198kการให้เหตุผล, vision
openai-gpt-54GPT-5.4 (ผ่าน Venice)1Mการให้เหตุผล, vision
openai-gpt-53-codexGPT-5.3 Codex (ผ่าน Venice)400kการให้เหตุผล, vision, การเขียนโค้ด
openai-gpt-52GPT-5.2 (ผ่าน Venice)256kการให้เหตุผล
openai-gpt-52-codexGPT-5.2 Codex (ผ่าน Venice)256kการให้เหตุผล, vision, การเขียนโค้ด
openai-gpt-4o-2024-11-20GPT-4o (ผ่าน Venice)128kVision
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (ผ่าน Venice)128kVision
gemini-3-1-pro-previewGemini 3.1 Pro (ผ่าน Venice)1Mการให้เหตุผล, vision
gemini-3-pro-previewGemini 3 Pro (ผ่าน Venice)198kการให้เหตุผล, vision
gemini-3-flash-previewGemini 3 Flash (ผ่าน Venice)256kการให้เหตุผล, vision
grok-41-fastGrok 4.1 Fast (ผ่าน Venice)1Mการให้เหตุผล, vision
grok-code-fast-1Grok Code Fast 1 (ผ่าน Venice)256kการให้เหตุผล, การเขียนโค้ด

การค้นหาโมเดล

OpenClaw มาพร้อม seed catalog ของ Venice ที่หนุนด้วย manifest สำหรับการแสดงรายการโมเดลแบบอ่านอย่างเดียว การ refresh ขณะ runtime ยังค้นพบโมเดลจาก Venice API ได้ และจะ fallback ไปยัง manifest catalog หากเข้าถึง API ไม่ได้ endpoint /models เป็น public (ไม่ต้องใช้ auth สำหรับการแสดงรายการ) แต่ inference ต้องใช้ API key ที่ถูกต้อง

การสตรีมและการรองรับเครื่องมือ

คุณสมบัติการรองรับ
Streamingทุกโมเดล
Function callingโมเดลส่วนใหญ่ (ตรวจสอบ supportsFunctionCalling ใน API)
Vision/Imagesโมเดลที่มีฟีเจอร์ “Vision”
JSON modeรองรับผ่าน response_format

ราคา

Venice ใช้ระบบแบบเครดิต ตรวจสอบ venice.ai/pricing สำหรับอัตราปัจจุบัน:
  • โมเดลส่วนตัว: โดยทั่วไปมีต้นทุนต่ำกว่า
  • โมเดลแบบนิรนาม: ใกล้เคียงกับราคา API โดยตรง + ค่าธรรมเนียม Venice เล็กน้อย

Venice (แบบนิรนาม) เทียบกับ API โดยตรง

ด้านVenice (แบบนิรนาม)API โดยตรง
ความเป็นส่วนตัวลบข้อมูลเมตาออกแล้ว ทำให้เป็นนิรนามเชื่อมโยงกับบัญชีของคุณ
เวลาแฝง+10-50ms (พร็อกซี)โดยตรง
ฟีเจอร์รองรับฟีเจอร์ส่วนใหญ่ฟีเจอร์ครบถ้วน
การเรียกเก็บเงินเครดิต Veniceการเรียกเก็บเงินจากผู้ให้บริการ

ตัวอย่างการใช้งาน

# Use the default private model
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# Use Claude Opus via Venice (anonymized)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# Use uncensored model
openclaw agent --model venice/venice-uncensored --message "Draft options"

# Use vision model with image
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# Use coding model
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

การแก้ไขปัญหา

echo $VENICE_API_KEY
openclaw models list | grep venice
ตรวจสอบให้แน่ใจว่าคีย์ขึ้นต้นด้วย vapi_
แค็ตตาล็อกโมเดล Venice อัปเดตแบบไดนามิก เรียกใช้ openclaw models list เพื่อดูโมเดลที่พร้อมใช้งานในปัจจุบัน บางโมเดลอาจออฟไลน์ชั่วคราว
Venice API อยู่ที่ https://api.venice.ai/api/v1 ตรวจสอบให้แน่ใจว่าเครือข่ายของคุณอนุญาตการเชื่อมต่อ HTTPS
ความช่วยเหลือเพิ่มเติม: การแก้ไขปัญหา และ คำถามที่พบบ่อย

การกำหนดค่าขั้นสูง

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

ที่เกี่ยวข้อง

การเลือกโมเดล

การเลือกผู้ให้บริการ การอ้างอิงโมเดล และลักษณะการทำงานของการสลับระบบเมื่อขัดข้อง

Venice AI

หน้าแรกของ Venice AI และการสมัครบัญชี

เอกสาร API

เอกสารอ้างอิง Venice API และเอกสารสำหรับนักพัฒนา

ราคา

อัตราเครดิตและแผนปัจจุบันของ Venice