Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Plugin Google ให้การเข้าถึงโมเดล Gemini ผ่าน Google AI Studio รวมถึง การสร้างภาพ ความเข้าใจสื่อ (ภาพ/เสียง/วิดีโอ), การแปลงข้อความเป็นเสียง และการค้นเว็บผ่าน Gemini Grounding
  • ผู้ให้บริการ: google
  • การยืนยันตัวตน: GEMINI_API_KEY หรือ GOOGLE_API_KEY
  • API: Google Gemini API
  • ตัวเลือกรันไทม์: ผู้ให้บริการ/โมเดล agentRuntime.id: "google-gemini-cli" ใช้ Gemini CLI OAuth ซ้ำ โดยยังคงการอ้างอิงโมเดลให้เป็นมาตรฐานในรูปแบบ google/*

เริ่มต้นใช้งาน

เลือกวิธีการยืนยันตัวตนที่คุณต้องการ แล้วทำตามขั้นตอนการตั้งค่า
เหมาะที่สุดสำหรับ: การเข้าถึง Gemini API มาตรฐานผ่าน Google AI Studio
1

Run onboarding

openclaw onboard --auth-choice gemini-api-key
หรือส่งคีย์โดยตรง:
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice gemini-api-key \
  --gemini-api-key "$GEMINI_API_KEY"
2

Set a default model

{
  agents: {
    defaults: {
      model: { primary: "google/gemini-3.1-pro-preview" },
    },
  },
}
3

Verify the model is available

openclaw models list --provider google
ตัวแปรสภาพแวดล้อม GEMINI_API_KEY และ GOOGLE_API_KEY รองรับทั้งคู่ ใช้ตัวใดก็ได้ที่คุณตั้งค่าไว้แล้ว

ความสามารถ

ความสามารถรองรับ
การเติมเต็มแชตใช่
การสร้างภาพใช่
การสร้างเพลงใช่
การแปลงข้อความเป็นเสียงใช่
เสียงแบบเรียลไทม์ใช่ (Google Live API)
ความเข้าใจภาพใช่
การถอดเสียงจากเสียงใช่
ความเข้าใจวิดีโอใช่
การค้นเว็บ (Grounding)ใช่
การคิด/การให้เหตุผลใช่ (Gemini 2.5+ / Gemini 3+)
โมเดล Gemma 4ใช่

การค้นเว็บ

ผู้ให้บริการค้นเว็บ gemini ที่รวมมาด้วยใช้การ Grounding ของ Gemini Google Search กำหนดค่าคีย์ค้นหาเฉพาะภายใต้ plugins.entries.google.config.webSearch หรือให้ใช้ models.providers.google.apiKey ซ้ำหลังจาก GEMINI_API_KEY:
{
  plugins: {
    entries: {
      google: {
        config: {
          webSearch: {
            apiKey: "AIza...", // optional if GEMINI_API_KEY or models.providers.google.apiKey is set
            baseUrl: "https://generativelanguage.googleapis.com/v1beta", // falls back to models.providers.google.baseUrl
            model: "gemini-2.5-flash",
          },
        },
      },
    },
  },
}
ลำดับความสำคัญของข้อมูลประจำตัวคือ webSearch.apiKey เฉพาะก่อน จากนั้น GEMINI_API_KEY แล้วจึง models.providers.google.apiKey webSearch.baseUrl เป็นตัวเลือก และ มีไว้สำหรับพร็อกซีของผู้ปฏิบัติงานหรือปลายทาง Gemini API ที่เข้ากันได้ เมื่อเว้นไว้ การค้นเว็บ Gemini จะใช้ models.providers.google.baseUrl ซ้ำ ดู การค้นหา Gemini สำหรับพฤติกรรมเครื่องมือเฉพาะผู้ให้บริการ
โมเดล Gemini 3 ใช้ thinkingLevel แทน thinkingBudget OpenClaw แมป การควบคุมการให้เหตุผลของ Gemini 3, Gemini 3.1 และนามแฝง gemini-*-latest ไปยัง thinkingLevel เพื่อให้การรันค่าเริ่มต้น/เวลาแฝงต่ำไม่ส่งค่า thinkingBudget ที่ปิดใช้งานแล้ว/think adaptive รักษาความหมายการคิดแบบไดนามิกของ Google แทนการเลือก ระดับ OpenClaw แบบคงที่ Gemini 3 และ Gemini 3.1 จะละ thinkingLevel แบบคงที่ เพื่อให้ Google เลือกระดับได้ ส่วน Gemini 2.5 ส่ง sentinel แบบไดนามิกของ Google thinkingBudget: -1โมเดล Gemma 4 (เช่น gemma-4-26b-a4b-it) รองรับโหมดการคิด OpenClaw เขียน thinkingBudget ใหม่เป็น thinkingLevel ของ Google ที่รองรับสำหรับ Gemma 4 การตั้งค่าการคิดเป็น off จะคงการปิดใช้งานการคิดไว้ แทนที่จะแมปเป็น MINIMAL

การสร้างภาพ

ผู้ให้บริการสร้างภาพ google ที่รวมมาด้วยมีค่าเริ่มต้นเป็น google/gemini-3.1-flash-image-preview
  • รองรับ google/gemini-3-pro-image-preview ด้วย
  • สร้าง: สูงสุด 4 ภาพต่อคำขอ
  • โหมดแก้ไข: เปิดใช้งาน สูงสุด 5 ภาพอินพุต
  • การควบคุมเรขาคณิต: size, aspectRatio และ resolution
หากต้องการใช้ Google เป็นผู้ให้บริการภาพเริ่มต้น:
{
  agents: {
    defaults: {
      imageGenerationModel: {
        primary: "google/gemini-3.1-flash-image-preview",
      },
    },
  },
}
ดู การสร้างภาพ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือกผู้ให้บริการ และพฤติกรรมเฟลโอเวอร์

การสร้างวิดีโอ

Plugin google ที่รวมมาด้วยยังลงทะเบียนการสร้างวิดีโอผ่านเครื่องมือที่ใช้ร่วมกัน video_generate
  • โมเดลวิดีโอเริ่มต้น: google/veo-3.1-fast-generate-preview
  • โหมด: ข้อความเป็นวิดีโอ, ภาพเป็นวิดีโอ และโฟลว์อ้างอิงวิดีโอเดียว
  • รองรับ aspectRatio (16:9, 9:16) และ resolution (720P, 1080P); เอาต์พุตเสียงยังไม่รองรับโดย Veo ในปัจจุบัน
  • ระยะเวลาที่รองรับ: 4, 6 หรือ 8 วินาที (ค่าอื่นจะปรับไปยังค่าที่อนุญาตซึ่งใกล้ที่สุด)
หากต้องการใช้ Google เป็นผู้ให้บริการวิดีโอเริ่มต้น:
{
  agents: {
    defaults: {
      videoGenerationModel: {
        primary: "google/veo-3.1-fast-generate-preview",
      },
    },
  },
}
ดู การสร้างวิดีโอ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือกผู้ให้บริการ และพฤติกรรมเฟลโอเวอร์

การสร้างเพลง

Plugin google ที่รวมมาด้วยยังลงทะเบียนการสร้างเพลงผ่านเครื่องมือที่ใช้ร่วมกัน music_generate
  • โมเดลเพลงเริ่มต้น: google/lyria-3-clip-preview
  • รองรับ google/lyria-3-pro-preview ด้วย
  • การควบคุมพรอมป์: lyrics และ instrumental
  • รูปแบบเอาต์พุต: ค่าเริ่มต้นคือ mp3 และมี wav บน google/lyria-3-pro-preview
  • อินพุตอ้างอิง: สูงสุด 10 ภาพ
  • การรันที่มีเซสชันรองรับจะแยกการทำงานผ่านโฟลว์งาน/สถานะที่ใช้ร่วมกัน รวมถึง action: "status"
หากต้องการใช้ Google เป็นผู้ให้บริการเพลงเริ่มต้น:
{
  agents: {
    defaults: {
      musicGenerationModel: {
        primary: "google/lyria-3-clip-preview",
      },
    },
  },
}
ดู การสร้างเพลง สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือกผู้ให้บริการ และพฤติกรรมเฟลโอเวอร์

การแปลงข้อความเป็นเสียง

ผู้ให้บริการเสียงพูด google ที่รวมมาด้วยใช้เส้นทาง Gemini API TTS พร้อม gemini-3.1-flash-tts-preview
  • เสียงเริ่มต้น: Kore
  • การยืนยันตัวตน: messages.tts.providers.google.apiKey, models.providers.google.apiKey, GEMINI_API_KEY หรือ GOOGLE_API_KEY
  • เอาต์พุต: WAV สำหรับไฟล์แนบ TTS ปกติ, Opus สำหรับเป้าหมายข้อความเสียง, PCM สำหรับ Talk/โทรศัพท์
  • เอาต์พุตข้อความเสียง: Google PCM ถูกห่อเป็น WAV และแปลงรหัสเป็น Opus 48 kHz ด้วย ffmpeg
เส้นทาง Gemini TTS แบบแบตช์ของ Google ส่งคืนเสียงที่สร้างใน การตอบกลับ generateContent ที่เสร็จสมบูรณ์ สำหรับการสนทนาพูดที่มีเวลาแฝงต่ำสุด ให้ใช้ ผู้ให้บริการเสียงแบบเรียลไทม์ของ Google ที่รองรับโดย Gemini Live API แทน TTS แบบแบตช์ หากต้องการใช้ Google เป็นผู้ให้บริการ TTS เริ่มต้น:
{
  messages: {
    tts: {
      auto: "always",
      provider: "google",
      providers: {
        google: {
          model: "gemini-3.1-flash-tts-preview",
          voiceName: "Kore",
          audioProfile: "Speak professionally with a calm tone.",
        },
      },
    },
  },
}
Gemini API TTS ใช้พรอมป์ภาษาธรรมชาติสำหรับการควบคุมสไตล์ ตั้งค่า audioProfile เพื่อเติมพรอมป์สไตล์ที่ใช้ซ้ำได้ก่อนข้อความที่จะพูด ตั้งค่า speakerName เมื่อข้อความพรอมป์ของคุณอ้างถึงผู้พูดที่มีชื่อ Gemini API TTS ยังยอมรับแท็กเสียงในวงเล็บเหลี่ยมที่สื่ออารมณ์ในข้อความ เช่น [whispers] หรือ [laughs] หากต้องการกันแท็กออกจากคำตอบแชตที่มองเห็น แต่ยังส่งไปยัง TTS ให้ใส่ไว้ในบล็อก [[tts:text]]...[[/tts:text]]:
Here is the clean reply text.

[[tts:text]][whispers] Here is the spoken version.[[/tts:text]]
API key ของ Google Cloud Console ที่จำกัดเฉพาะ Gemini API ใช้ได้กับ ผู้ให้บริการนี้ นี่ไม่ใช่เส้นทาง Cloud Text-to-Speech API แยกต่างหาก

เสียงแบบเรียลไทม์

Plugin google ที่รวมมาด้วยลงทะเบียนผู้ให้บริการเสียงแบบเรียลไทม์ที่รองรับโดย Gemini Live API สำหรับบริดจ์เสียงแบ็กเอนด์ เช่น Voice Call และ Google Meet
การตั้งค่าพาธการกำหนดค่าค่าเริ่มต้น
โมเดลplugins.entries.voice-call.config.realtime.providers.google.modelgemini-2.5-flash-native-audio-preview-12-2025
เสียง...google.voiceKore
อุณหภูมิ...google.temperature(ไม่ได้ตั้งค่า)
ความไวเริ่มต้นของ VAD...google.startSensitivity(ไม่ได้ตั้งค่า)
ความไวสิ้นสุดของ VAD...google.endSensitivity(ไม่ได้ตั้งค่า)
ระยะเวลาความเงียบ...google.silenceDurationMs(ไม่ได้ตั้งค่า)
การจัดการกิจกรรม...google.activityHandlingค่าเริ่มต้นของ Google, start-of-activity-interrupts
การครอบคลุมรอบสนทนา...google.turnCoverageค่าเริ่มต้นของ Google, only-activity
ปิดใช้งาน VAD อัตโนมัติ...google.automaticActivityDetectionDisabledfalse
การกลับมาใช้เซสชันต่อ...google.sessionResumptiontrue
การบีบอัดบริบท...google.contextWindowCompressiontrue
คีย์ API...google.apiKeyสำรองไปใช้ models.providers.google.apiKey, GEMINI_API_KEY หรือ GOOGLE_API_KEY
ตัวอย่างการกำหนดค่า Voice Call แบบเรียลไทม์:
{
  plugins: {
    entries: {
      "voice-call": {
        enabled: true,
        config: {
          realtime: {
            enabled: true,
            provider: "google",
            providers: {
              google: {
                model: "gemini-2.5-flash-native-audio-preview-12-2025",
                voice: "Kore",
                activityHandling: "start-of-activity-interrupts",
                turnCoverage: "only-activity",
              },
            },
          },
        },
      },
    },
  },
}
Google Live API ใช้เสียงแบบสองทิศทางและการเรียกฟังก์ชันผ่าน WebSocket OpenClaw ปรับเสียงจากบริดจ์โทรศัพท์/Meet ให้เข้ากับสตรีม PCM Live API ของ Gemini และ เก็บการเรียกเครื่องมือไว้บนสัญญาเสียงแบบเรียลไทม์ที่ใช้ร่วมกัน ปล่อย temperature ไว้โดยไม่ตั้งค่า เว้นแต่คุณต้องเปลี่ยนการสุ่มตัวอย่าง; OpenClaw จะละเว้นค่าที่ไม่เป็นบวก เพราะ Google Live อาจส่งคืนทรานสคริปต์โดยไม่มีเสียงสำหรับ temperature: 0 การถอดเสียงของ Gemini API เปิดใช้งานโดยไม่มี languageCodes; Google SDK ปัจจุบันปฏิเสธคำแนะนำรหัสภาษาบนพาธ API นี้
Control UI Talk รองรับเซสชันเบราว์เซอร์ Google Live ด้วยโทเค็นแบบใช้ครั้งเดียวที่มีข้อจำกัด ผู้ให้บริการเสียงแบบเรียลไทม์ที่ทำงานเฉพาะแบ็กเอนด์ยังสามารถทำงานผ่านการขนส่งรีเลย์ทั่วไปของ Gateway ซึ่งเก็บข้อมูลรับรองของผู้ให้บริการไว้บน Gateway
สำหรับการยืนยันแบบสดของผู้ดูแล ให้รัน OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts smoke ยังครอบคลุมพาธแบ็กเอนด์/WebRTC ของ OpenAI ด้วย; ช่วง Google จะออกโทเค็น Live API แบบมีข้อจำกัดรูปแบบเดียวกับที่ Control UI Talk ใช้ เปิดเอนด์พอยต์ WebSocket ของเบราว์เซอร์ ส่งเพย์โหลดการตั้งค่าเริ่มต้น และรอ setupComplete

การกำหนดค่าขั้นสูง

สำหรับการรัน Gemini API โดยตรง (api: "google-generative-ai"), OpenClaw ส่งตัวจัดการ cachedContent ที่กำหนดค่าไว้ต่อไปยังคำขอ Gemini
  • กำหนดค่าพารามิเตอร์ต่อโมเดลหรือแบบส่วนกลางด้วย cachedContent หรือ cached_content แบบเดิม
  • หากมีทั้งคู่ cachedContent จะมีผลก่อน
  • ค่าตัวอย่าง: cachedContents/prebuilt-context
  • การใช้งานแคชฮิตของ Gemini ถูกทำให้เป็นมาตรฐานเป็น cacheRead ของ OpenClaw จาก cachedContentTokenCount ต้นทาง
{
  agents: {
    defaults: {
      models: {
        "google/gemini-2.5-pro": {
          params: {
            cachedContent: "cachedContents/prebuilt-context",
          },
        },
      },
    },
  },
}
เมื่อใช้ผู้ให้บริการ OAuth google-gemini-cli, OpenClaw ทำให้ เอาต์พุต JSON ของ CLI เป็นมาตรฐานดังนี้:
  • ข้อความตอบกลับมาจากฟิลด์ response ใน JSON ของ CLI
  • การใช้งานจะสำรองไปใช้ stats เมื่อ CLI ปล่อย usage ว่างไว้
  • stats.cached ถูกทำให้เป็นมาตรฐานเป็น cacheRead ของ OpenClaw
  • หากไม่มี stats.input, OpenClaw จะอนุมานโทเค็นอินพุตจาก stats.input_tokens - stats.cached
หาก Gateway ทำงานเป็นดีมอน (launchd/systemd), ตรวจสอบให้แน่ใจว่า GEMINI_API_KEY พร้อมใช้งานสำหรับกระบวนการนั้น (เช่น ใน ~/.openclaw/.env หรือผ่าน env.shellEnv)

ที่เกี่ยวข้อง

การเลือกโมเดล

การเลือกผู้ให้บริการ, การอ้างอิงโมเดล และพฤติกรรมการสลับเมื่อเกิดข้อผิดพลาด

การสร้างรูปภาพ

พารามิเตอร์เครื่องมือรูปภาพที่ใช้ร่วมกันและการเลือกผู้ให้บริการ

การสร้างวิดีโอ

พารามิเตอร์เครื่องมือวิดีโอที่ใช้ร่วมกันและการเลือกผู้ให้บริการ

การสร้างเพลง

พารามิเตอร์เครื่องมือเพลงที่ใช้ร่วมกันและการเลือกผู้ให้บริการ