OpenAI มี API สำหรับนักพัฒนาสำหรับโมเดล GPT และ Codex ยังพร้อมใช้งานเป็นเอเจนต์เขียนโค้ดตามแผน ChatGPT ผ่านไคลเอนต์ Codex ของ OpenAI ด้วย OpenClaw แยกพื้นผิวเหล่านั้นออกจากกันเพื่อให้การกำหนดค่าคาดเดาได้ OpenClaw ใช้Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
openai/* เป็นเส้นทางโมเดล OpenAI มาตรฐาน เทิร์นเอเจนต์แบบฝังบนโมเดล OpenAI จะรันผ่านรันไทม์แอปเซิร์ฟเวอร์ Codex แบบเนทีฟตามค่าเริ่มต้น; การยืนยันตัวตนด้วยคีย์ OpenAI API โดยตรงยังคงพร้อมใช้งานสำหรับพื้นผิว OpenAI ที่ไม่ใช่เอเจนต์ เช่น รูปภาพ, embeddings, เสียงพูด และเรียลไทม์
- โมเดลเอเจนต์ - โมเดล
openai/*ผ่านรันไทม์ Codex; ลงชื่อเข้าใช้ด้วยการยืนยันตัวตน Codex สำหรับการใช้งานผ่านการสมัครสมาชิก ChatGPT/Codex หรือกำหนดค่าโปรไฟล์สำรองคีย์ OpenAI API ที่เข้ากันได้กับ Codex เมื่อคุณตั้งใจต้องการการยืนยันตัวตนด้วยคีย์ API - OpenAI API ที่ไม่ใช่เอเจนต์ - การเข้าถึง OpenAI Platform โดยตรงพร้อมการเรียกเก็บเงินตามการใช้งานผ่าน
OPENAI_API_KEYหรือการเริ่มต้นใช้งานคีย์ OpenAI API - การกำหนดค่าเดิม - การอ้างอิงโมเดล
openai-codex/*จะถูกซ่อมโดยopenclaw doctor --fixเป็นopenai/*พร้อมรันไทม์ Codex
ตัวเลือกด่วน
| เป้าหมาย | ใช้ | หมายเหตุ |
|---|---|---|
| การสมัครสมาชิก ChatGPT/Codex พร้อมรันไทม์ Codex แบบเนทีฟ | openai/gpt-5.5 | การตั้งค่าเอเจนต์ OpenAI เริ่มต้น ลงชื่อเข้าใช้ด้วยการยืนยันตัวตน Codex |
| การเรียกเก็บเงินด้วยคีย์ API โดยตรงสำหรับโมเดลเอเจนต์ | openai/gpt-5.5 พร้อมโปรไฟล์คีย์ API ที่เข้ากันได้กับ Codex | ใช้ auth.order.openai เพื่อวางโปรไฟล์สำรองไว้หลังการยืนยันตัวตนแบบสมัครสมาชิก |
| การเรียกเก็บเงินด้วยคีย์ API โดยตรงผ่าน PI แบบชัดเจน | openai/gpt-5.5 พร้อมรันไทม์ผู้ให้บริการ/โมเดล pi | เลือกโปรไฟล์คีย์ API openai ปกติ |
| alias API ของ ChatGPT Instant ล่าสุด | openai/chat-latest | ใช้คีย์ API โดยตรงเท่านั้น alias ที่เปลี่ยนไปสำหรับการทดลอง ไม่ใช่ค่าเริ่มต้น |
| การยืนยันตัวตนการสมัครสมาชิก ChatGPT/Codex ผ่าน PI แบบชัดเจน | openai/gpt-5.5 พร้อมรันไทม์ผู้ให้บริการ/โมเดล pi | เลือกโปรไฟล์การยืนยันตัวตน openai-codex สำหรับเส้นทางความเข้ากันได้ |
| การสร้างหรือแก้ไขรูปภาพ | openai/gpt-image-2 | ใช้งานได้กับทั้ง OPENAI_API_KEY หรือ OpenAI Codex OAuth |
| รูปภาพพื้นหลังโปร่งใส | openai/gpt-image-1.5 | ใช้ outputFormat=png หรือ webp และ openai.background=transparent |
แผนที่ชื่อ
ชื่อคล้ายกันแต่ใช้แทนกันไม่ได้:| ชื่อที่คุณเห็น | เลเยอร์ | ความหมาย |
|---|---|---|
openai | คำนำหน้าผู้ให้บริการ | เส้นทางโมเดล OpenAI มาตรฐาน; เทิร์นเอเจนต์ใช้รันไทม์ Codex |
openai-codex | คำนำหน้าการยืนยันตัวตน/โปรไฟล์เดิม | เนมสเปซโปรไฟล์ OAuth/การสมัครสมาชิก OpenAI Codex รุ่นเก่า โปรไฟล์ที่มีอยู่และ auth.order.openai-codex ยังใช้งานได้ |
codex plugin | Plugin | Plugin OpenClaw ที่มาพร้อมระบบซึ่งให้รันไทม์แอปเซิร์ฟเวอร์ Codex แบบเนทีฟและการควบคุมแชต /codex |
provider/model agentRuntime.id: codex | รันไทม์เอเจนต์ | บังคับใช้ harness แอปเซิร์ฟเวอร์ Codex แบบเนทีฟสำหรับเทิร์นแบบฝังที่ตรงกัน |
/codex ... | ชุดคำสั่งแชต | ผูก/ควบคุมเธรดแอปเซิร์ฟเวอร์ Codex จากการสนทนา |
runtime: "acp", agentId: "codex" | เส้นทางเซสชัน ACP | เส้นทางสำรองที่ชัดเจนซึ่งรัน Codex ผ่าน ACP/acpx |
openai/* ในขณะที่โปรไฟล์การยืนยันตัวตนยังชี้ไปยังข้อมูลประจำตัวที่เข้ากันได้กับ Codex ได้ ควรใช้ auth.order.openai สำหรับการกำหนดค่าใหม่; โปรไฟล์ openai-codex:* และ auth.order.openai-codex ที่มีอยู่ยังคงรองรับอยู่ openclaw doctor --fix จะเขียนการอ้างอิงโมเดล openai-codex/* เดิมใหม่เป็นเส้นทางโมเดล OpenAI มาตรฐาน
GPT-5.5 พร้อมใช้งานผ่านทั้งการเข้าถึงด้วยคีย์ API ของ OpenAI Platform โดยตรงและเส้นทางการสมัครสมาชิก/OAuth สำหรับการสมัครสมาชิก ChatGPT/Codex พร้อมการรัน Codex แบบเนทีฟ ให้ใช้
openai/gpt-5.5; การไม่ตั้งค่ารันไทม์ตอนนี้จะเลือก harness Codex สำหรับเทิร์นเอเจนต์ OpenAI ใช้โปรไฟล์คีย์ OpenAI API เฉพาะเมื่อคุณต้องการการยืนยันตัวตนด้วยคีย์ API โดยตรงสำหรับโมเดลเอเจนต์ OpenAIเทิร์นโมเดลเอเจนต์ OpenAI ต้องใช้ Plugin แอปเซิร์ฟเวอร์ Codex ที่มาพร้อมระบบ การกำหนดค่ารันไทม์ PI แบบชัดเจนยังคงพร้อมใช้งานเป็นเส้นทางความเข้ากันได้แบบเลือกใช้ เมื่อเลือก PI อย่างชัดเจนพร้อมโปรไฟล์การยืนยันตัวตน
openai-codex OpenClaw จะคงการอ้างอิงโมเดลสาธารณะเป็น openai/* และกำหนดเส้นทาง PI ภายในผ่านการขนส่งการยืนยันตัวตน Codex แบบเดิม รัน openclaw doctor --fix เพื่อซ่อมการอ้างอิงโมเดล openai-codex/* ที่ล้าสมัย หรือพินเซสชัน PI เก่าที่ไม่ได้มาจากการกำหนดค่ารันไทม์แบบชัดเจนความครอบคลุมฟีเจอร์ของ OpenClaw
| ความสามารถของ OpenAI | พื้นผิว OpenClaw | สถานะ |
|---|---|---|
| แชต / Responses | ผู้ให้บริการโมเดล openai/<model> | ใช่ |
| โมเดลการสมัครสมาชิก Codex | openai/<model> พร้อม OAuth openai-codex | ใช่ |
| การอ้างอิงโมเดล Codex เดิม | openai-codex/<model> | ถูกซ่อมโดย doctor เป็น openai/<model> |
| harness แอปเซิร์ฟเวอร์ Codex | openai/<model> พร้อมรันไทม์ที่ละไว้ หรือผู้ให้บริการ/โมเดล agentRuntime.id: codex | ใช่ |
| การค้นหาเว็บฝั่งเซิร์ฟเวอร์ | เครื่องมือ OpenAI Responses แบบเนทีฟ | ใช่ เมื่อเปิดใช้งานการค้นหาเว็บและไม่มีการพินผู้ให้บริการ |
| รูปภาพ | image_generate | ใช่ |
| วิดีโอ | video_generate | ใช่ |
| ข้อความเป็นเสียงพูด | messages.tts.provider: "openai" / tts | ใช่ |
| การถอดเสียงพูดเป็นข้อความแบบชุด | tools.media.audio / ความเข้าใจสื่อ | ใช่ |
| การถอดเสียงพูดเป็นข้อความแบบสตรีม | Voice Call streaming.provider: "openai" | ใช่ |
| เสียงเรียลไทม์ | Voice Call realtime.provider: "openai" / Control UI Talk | ใช่ |
| Embeddings | ผู้ให้บริการ embedding หน่วยความจำ | ใช่ |
Embeddings หน่วยความจำ
OpenClaw สามารถใช้ OpenAI หรือปลายทาง embedding ที่เข้ากันได้กับ OpenAI สำหรับการทำดัชนีmemory_search และ embeddings สำหรับคำค้นหา:
queryInputType และ documentInputType ใต้ memorySearch OpenClaw จะส่งต่อค่าเหล่านั้นเป็นฟิลด์คำขอ input_type เฉพาะผู้ให้บริการ: embeddings สำหรับคำค้นหาใช้ queryInputType; ชังก์หน่วยความจำที่ทำดัชนีและการทำดัชนีแบบชุดใช้ documentInputType ดูตัวอย่างเต็มได้ที่ ข้อมูลอ้างอิงการกำหนดค่าหน่วยความจำ
เริ่มต้นใช้งาน
เลือกวิธีการยืนยันตัวตนที่คุณต้องการ แล้วทำตามขั้นตอนการตั้งค่า- คีย์ API (OpenAI Platform)
- การสมัครใช้งาน Codex
เหมาะสำหรับ: การเข้าถึง API โดยตรงและการเรียกเก็บเงินตามการใช้งาน
หากต้องการลองโมเดล Instant ปัจจุบันของ ChatGPT จาก OpenAI API ให้ตั้งค่าโมเดลเป็น
รับคีย์ API ของคุณ
สร้างหรือคัดลอกคีย์ API จาก แดชบอร์ด OpenAI Platform
สรุปเส้นทาง
| การอ้างอิงโมเดล | การกำหนดค่ารันไทม์ | เส้นทาง | การยืนยันตัวตน |
|---|---|---|---|
openai/gpt-5.5 | ละไว้ / ผู้ให้บริการ/โมเดล agentRuntime.id: "codex" | harness แอปเซิร์ฟเวอร์ Codex | โปรไฟล์ OpenAI ที่เข้ากันได้กับ Codex |
openai/gpt-5.4-mini | ละไว้ / ผู้ให้บริการ/โมเดล agentRuntime.id: "codex" | harness แอปเซิร์ฟเวอร์ Codex | โปรไฟล์ OpenAI ที่เข้ากันได้กับ Codex |
openai/gpt-5.5 | ผู้ให้บริการ/โมเดล agentRuntime.id: "pi" | รันไทม์แบบฝัง PI | โปรไฟล์ openai หรือโปรไฟล์ openai-codex ที่เลือก |
โมเดลเอเจนต์
openai/* ใช้ harness แอปเซิร์ฟเวอร์ Codex หากต้องการใช้การยืนยันตัวตนด้วยคีย์ API สำหรับโมเดลเอเจนต์ ให้สร้างโปรไฟล์คีย์ API ที่เข้ากันได้กับ Codex แล้วจัดลำดับด้วย auth.order.openai; OPENAI_API_KEY ยังคงเป็นตัวสำรองโดยตรงสำหรับพื้นผิว OpenAI API ที่ไม่ใช่เอเจนต์ รายการ auth.order.openai-codex รุ่นเก่ายังคงใช้งานได้ตัวอย่างการกำหนดค่า
openai/chat-latest:chat-latest เป็น alias ที่เปลี่ยนไป OpenAI ระบุว่าเป็นโมเดล Instant ล่าสุดที่ใช้ใน ChatGPT และแนะนำ gpt-5.5 สำหรับการใช้งาน API ในโปรดักชัน ดังนั้นให้คง openai/gpt-5.5 เป็นค่าเริ่มต้นที่เสถียร เว้นแต่คุณต้องการพฤติกรรม alias นั้นอย่างชัดเจน ปัจจุบัน alias นี้ยอมรับความละเอียดของข้อความเฉพาะ medium เท่านั้น ดังนั้น OpenClaw จะปรับ override ความละเอียดข้อความ OpenAI ที่เข้ากันไม่ได้สำหรับโมเดลนี้ให้เป็นปกติAuth แอปเซิร์ฟเวอร์ Codex แบบเนทีฟ
ฮาร์เนสแอปเซิร์ฟเวอร์ Codex แบบเนทีฟใช้การอ้างอิงโมเดลopenai/* ร่วมกับการละเว้น
การกำหนดค่า runtime หรือ provider/model agentRuntime.id: "codex" แต่ auth ของมัน
ยังคงอิงตามบัญชี OpenClaw เลือก auth ตามลำดับนี้:
- โปรไฟล์ auth OpenAI ตามลำดับสำหรับเอเจนต์ โดยควรอยู่ใต้
auth.order.openaiโปรไฟล์openai-codex:*ที่มีอยู่และauth.order.openai-codexยังคงใช้ได้สำหรับการติดตั้งรุ่นเก่า - บัญชีที่มีอยู่ของแอปเซิร์ฟเวอร์ เช่น การลงชื่อเข้าใช้ ChatGPT ของ Codex CLI ในเครื่อง
- สำหรับการเปิดใช้แอปเซิร์ฟเวอร์ stdio ในเครื่องเท่านั้น
CODEX_API_KEYจากนั้นOPENAI_API_KEYเมื่อแอปเซิร์ฟเวอร์รายงานว่าไม่มีบัญชีและยังต้องการ OpenAI auth
OPENAI_API_KEY สำหรับโมเดล OpenAI โดยตรง
หรือ embeddings ด้วย การ fallback ไปใช้ env API-key เป็นเส้นทาง stdio ในเครื่องที่ไม่มีบัญชีเท่านั้น;
จะไม่ถูกส่งไปยังการเชื่อมต่อแอปเซิร์ฟเวอร์ WebSocket เมื่อเลือกโปรไฟล์ Codex
แบบการสมัครใช้งาน OpenClaw ยังกัน CODEX_API_KEY และ OPENAI_API_KEY
ออกจาก child แอปเซิร์ฟเวอร์ stdio ที่ spawn ขึ้นมา และส่งข้อมูลประจำตัวที่เลือก
ผ่าน RPC login ของแอปเซิร์ฟเวอร์ เมื่อโปรไฟล์การสมัครใช้งานนั้นถูกบล็อกโดย
ขีดจำกัดการใช้งาน Codex OpenClaw สามารถสลับไปยังโปรไฟล์ API-key openai:*
ลำดับถัดไปได้โดยไม่เปลี่ยนโมเดลที่เลือกหรือออกจากฮาร์เนส Codex
เมื่อเวลาการรีเซ็ตของการสมัครใช้งานผ่านไป โปรไฟล์การสมัครใช้งานจะมีสิทธิ์ใช้งานอีกครั้ง
การสร้างรูปภาพ
Pluginopenai ที่บันเดิลมาจะลงทะเบียนการสร้างรูปภาพผ่านเครื่องมือ image_generate
รองรับทั้งการสร้างรูปภาพด้วย API-key ของ OpenAI และการสร้างรูปภาพด้วย Codex OAuth
ผ่านอ้างอิงโมเดล openai/gpt-image-2 เดียวกัน
| ความสามารถ | OpenAI API key | Codex OAuth |
|---|---|---|
| อ้างอิงโมเดล | openai/gpt-image-2 | openai/gpt-image-2 |
| Auth | OPENAI_API_KEY | การลงชื่อเข้าใช้ OpenAI Codex OAuth |
| ทรานสปอร์ต | OpenAI Images API | แบ็กเอนด์ Codex Responses |
| จำนวนรูปภาพสูงสุดต่อคำขอ | 4 | 4 |
| โหมดแก้ไข | เปิดใช้ (สูงสุด 5 รูปภาพอ้างอิง) | เปิดใช้ (สูงสุด 5 รูปภาพอ้างอิง) |
| การเขียนทับขนาด | รองรับ รวมถึงขนาด 2K/4K | รองรับ รวมถึงขนาด 2K/4K |
| อัตราส่วนภาพ / ความละเอียด | ไม่ส่งต่อไปยัง OpenAI Images API | แมปเป็นขนาดที่รองรับเมื่อปลอดภัย |
ดู การสร้างรูปภาพ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือก provider และพฤติกรรม failover
gpt-image-2 เป็นค่าเริ่มต้นสำหรับทั้งการสร้างรูปภาพจากข้อความของ OpenAI และการ
แก้ไขรูปภาพ gpt-image-1.5, gpt-image-1 และ gpt-image-1-mini ยังคงใช้งานได้ในฐานะ
การเขียนทับโมเดลอย่างชัดเจน ใช้ openai/gpt-image-1.5 สำหรับเอาต์พุต PNG/WebP
พื้นหลังโปร่งใส; API gpt-image-2 ปัจจุบันปฏิเสธ
background: "transparent"
สำหรับคำขอพื้นหลังโปร่งใส เอเจนต์ควรเรียก image_generate ด้วย
model: "openai/gpt-image-1.5", outputFormat: "png" หรือ "webp" และ
background: "transparent"; ตัวเลือก provider openai.background รุ่นเก่า
ยังคงได้รับการยอมรับ OpenClaw ยังปกป้องเส้นทาง OpenAI สาธารณะและ
OpenAI Codex OAuth โดยเขียนคำขอพื้นหลังโปร่งใส openai/gpt-image-2 เริ่มต้น
ใหม่เป็น gpt-image-1.5; Azure และปลายทางแบบเข้ากันได้กับ OpenAI แบบกำหนดเองจะคง
ชื่อ deployment/model ที่กำหนดค่าไว้
การตั้งค่าเดียวกันนี้เปิดเผยสำหรับการรัน CLI แบบไม่มีหน้าจอด้วย:
--output-format และ --background เดียวกันกับ
openclaw infer image edit เมื่อเริ่มจากไฟล์อินพุต
--openai-background ยังคงพร้อมใช้งานในฐานะ alias เฉพาะ OpenAI
สำหรับการติดตั้ง Codex OAuth ให้คงอ้างอิง openai/gpt-image-2 เดิมไว้ เมื่อมีการกำหนดค่า
โปรไฟล์ OAuth openai-codex OpenClaw จะแปลงโทเค็นการเข้าถึง OAuth
ที่จัดเก็บไว้และส่งคำขอรูปภาพผ่านแบ็กเอนด์ Codex Responses โดยจะไม่
ลองใช้ OPENAI_API_KEY ก่อนหรือ fallback ไปยัง API key สำหรับคำขอนั้นแบบเงียบๆ
ให้กำหนดค่า models.providers.openai อย่างชัดเจนด้วย API key,
URL ฐานแบบกำหนดเอง หรือปลายทาง Azure เมื่อคุณต้องการเส้นทาง OpenAI Images API
โดยตรงแทน
หากปลายทางรูปภาพแบบกำหนดเองนั้นอยู่บนที่อยู่ LAN/private ที่เชื่อถือได้ ให้ตั้งค่า
browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true ด้วย; OpenClaw จะบล็อก
ปลายทางรูปภาพแบบเข้ากันได้กับ OpenAI ที่เป็น private/internal ไว้ เว้นแต่จะมีการเลือกใช้
นี้
สร้าง:
การสร้างวิดีโอ
Pluginopenai ที่มาพร้อมระบบลงทะเบียนการสร้างวิดีโอผ่านเครื่องมือ video_generate
| ความสามารถ | ค่า |
|---|---|
| โมเดลเริ่มต้น | openai/sora-2 |
| โหมด | ข้อความเป็นวิดีโอ, รูปภาพเป็นวิดีโอ, แก้ไขวิดีโอเดี่ยว |
| อินพุตอ้างอิง | รูปภาพ 1 รายการหรือวิดีโอ 1 รายการ |
| การแทนที่ขนาด | รองรับ |
| การแทนที่อื่น ๆ | aspectRatio, resolution, audio, watermark จะถูกละเว้นพร้อมคำเตือนจากเครื่องมือ |
ดู การสร้างวิดีโอ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือกผู้ให้บริการ และพฤติกรรม failover
การสนับสนุนพรอมป์ GPT-5
OpenClaw เพิ่มการสนับสนุนพรอมป์ GPT-5 ที่ใช้ร่วมกันสำหรับการรันตระกูล GPT-5 ข้ามผู้ให้บริการ โดยใช้ตาม id ของโมเดล ดังนั้นopenai/gpt-5.5, refs แบบเดิมก่อนการซ่อมแซม เช่น openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 และ refs GPT-5 อื่น ๆ ที่เข้ากันได้จะได้รับ overlay เดียวกัน โมเดล GPT-4.x ที่เก่ากว่าจะไม่ได้รับ
harness Codex แบบ native ที่มาพร้อมระบบใช้พฤติกรรม GPT-5 และ Heartbeat overlay เดียวกันผ่านคำสั่ง developer ของ app-server Codex ดังนั้นเซสชัน openai/gpt-5.x ที่ route ผ่าน Codex จะคงแนวทางการติดตามงานและ Heartbeat เชิงรุกแบบเดียวกัน แม้ว่า Codex จะเป็นเจ้าของพรอมป์ส่วนอื่นของ harness
การสนับสนุน GPT-5 เพิ่มสัญญาพฤติกรรมแบบมีแท็กสำหรับการคงบุคลิก ความปลอดภัยในการดำเนินการ วินัยการใช้เครื่องมือ รูปแบบเอาต์พุต การตรวจสอบการเสร็จสิ้น และการยืนยันผล พฤติกรรมการตอบกลับเฉพาะช่องทางและข้อความเงียบยังคงอยู่ในพรอมป์ระบบ OpenClaw ที่ใช้ร่วมกันและนโยบายการส่งออก คำแนะนำ GPT-5 จะเปิดใช้งานเสมอสำหรับโมเดลที่ตรงกัน เลเยอร์สไตล์การโต้ตอบแบบเป็นมิตรแยกต่างหากและกำหนดค่าได้
| ค่า | ผลลัพธ์ |
|---|---|
"friendly" (ค่าเริ่มต้น) | เปิดใช้เลเยอร์สไตล์การโต้ตอบแบบเป็นมิตร |
"on" | alias สำหรับ "friendly" |
"off" | ปิดใช้เฉพาะเลเยอร์สไตล์แบบเป็นมิตร |
- การกำหนดค่า
- CLI
ค่าเดิม
plugins.entries.openai.config.personality ยังคงถูกอ่านเป็น fallback เพื่อความเข้ากันได้ เมื่อยังไม่ได้ตั้งค่าการตั้งค่าที่ใช้ร่วมกัน agents.defaults.promptOverlays.gpt5.personalityเสียงและคำพูด
การสังเคราะห์เสียงพูด (TTS)
การสังเคราะห์เสียงพูด (TTS)
Plugin
โมเดลที่มีให้ใช้:
openai ที่มาพร้อมระบบลงทะเบียนการสังเคราะห์เสียงพูดสำหรับ surface messages.tts| การตั้งค่า | path การกำหนดค่า | ค่าเริ่มต้น |
|---|---|---|
| โมเดล | messages.tts.providers.openai.model | gpt-4o-mini-tts |
| เสียง | messages.tts.providers.openai.voice | coral |
| ความเร็ว | messages.tts.providers.openai.speed | (ไม่ได้ตั้งค่า) |
| คำสั่ง | messages.tts.providers.openai.instructions | (ไม่ได้ตั้งค่า, เฉพาะ gpt-4o-mini-tts) |
| รูปแบบ | messages.tts.providers.openai.responseFormat | opus สำหรับ voice notes, mp3 สำหรับไฟล์ |
| คีย์ API | messages.tts.providers.openai.apiKey | fallback ไปที่ OPENAI_API_KEY |
| URL ฐาน | messages.tts.providers.openai.baseUrl | https://api.openai.com/v1 |
| body เพิ่มเติม | messages.tts.providers.openai.extraBody / extra_body | (ไม่ได้ตั้งค่า) |
gpt-4o-mini-tts, tts-1, tts-1-hd เสียงที่มีให้ใช้: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verseextraBody จะถูก merge เข้ากับ JSON คำขอ /audio/speech หลังฟิลด์ที่ OpenClaw สร้างขึ้น ดังนั้นให้ใช้สำหรับ endpoint ที่เข้ากันได้กับ OpenAI ซึ่งต้องการคีย์เพิ่มเติม เช่น lang คีย์ prototype จะถูกละเว้นตั้งค่า
OPENAI_TTS_BASE_URL เพื่อแทนที่ URL ฐานของ TTS โดยไม่กระทบ endpoint ของ chat API OpenAI TTS ยังคงกำหนดค่าผ่านคีย์ API; สำหรับ live talk-back ที่ใช้ OAuth เท่านั้น ให้ใช้ path เสียง Realtime แทนเสียงพูดแบบ agent-mode STT -> TTSเสียงพูดเป็นข้อความ
เสียงพูดเป็นข้อความ
Plugin คำใบ้ภาษาและพรอมป์จะถูกส่งต่อไปยัง OpenAI เมื่อมีการระบุโดย
การกำหนดค่าสื่อเสียงที่ใช้ร่วมกันหรือคำขอถอดเสียงรายครั้ง
openai ที่มาพร้อมระบบลงทะเบียนเสียงพูดเป็นข้อความแบบแบตช์ผ่าน
surface การถอดเสียงเพื่อทำความเข้าใจสื่อของ OpenClaw- โมเดลเริ่มต้น:
gpt-4o-transcribe - Endpoint: OpenAI REST
/v1/audio/transcriptions - path อินพุต: การอัปโหลดไฟล์เสียงแบบ multipart
- รองรับโดย OpenClaw ทุกที่ที่การถอดเสียงขาเข้าใช้
tools.media.audioรวมถึงส่วนของช่องเสียง Discord และไฟล์แนบเสียง ของช่องทาง
Realtime transcription
Realtime transcription
Plugin
openai ที่รวมมาให้ลงทะเบียนการถอดเสียงแบบเรียลไทม์สำหรับ Plugin Voice Call| การตั้งค่า | เส้นทางการกำหนดค่า | ค่าเริ่มต้น |
|---|---|---|
| โมเดล | plugins.entries.voice-call.config.streaming.providers.openai.model | gpt-4o-transcribe |
| ภาษา | ...openai.language | (ไม่ได้ตั้งค่า) |
| พรอมป์ | ...openai.prompt | (ไม่ได้ตั้งค่า) |
| ระยะเวลาความเงียบ | ...openai.silenceDurationMs | 800 |
| เกณฑ์ VAD | ...openai.vadThreshold | 0.5 |
| การยืนยันตัวตน | ...openai.apiKey, OPENAI_API_KEY, หรือ OAuth openai-codex | คีย์ API เชื่อมต่อโดยตรง; OAuth ออก client secret สำหรับการถอดเสียงแบบเรียลไทม์ |
ใช้การเชื่อมต่อ WebSocket ไปยัง
wss://api.openai.com/v1/realtime พร้อมเสียง G.711 u-law (g711_ulaw / audio/pcmu) เมื่อกำหนดค่าเฉพาะ OAuth openai-codex เท่านั้น Gateway จะออก client secret สำหรับการถอดเสียงแบบเรียลไทม์แบบชั่วคราวก่อนเปิด WebSocket ผู้ให้บริการสตรีมมิงนี้ใช้สำหรับเส้นทางการถอดเสียงแบบเรียลไทม์ของ Voice Call; ขณะนี้เสียงของ Discord บันทึกช่วงสั้น ๆ และใช้เส้นทางการถอดเสียงแบบแบตช์ tools.media.audio แทนRealtime voice
Realtime voice
Plugin
เสียง Realtime ในตัวที่มีให้สำหรับ
openai ที่รวมมาให้ลงทะเบียนเสียงแบบเรียลไทม์สำหรับ Plugin Voice Call| การตั้งค่า | เส้นทางการกำหนดค่า | ค่าเริ่มต้น |
|---|---|---|
| โมเดล | plugins.entries.voice-call.config.realtime.providers.openai.model | gpt-realtime-2 |
| เสียง | ...openai.voice | alloy |
| อุณหภูมิ (บริดจ์การปรับใช้ Azure) | ...openai.temperature | 0.8 |
| เกณฑ์ VAD | ...openai.vadThreshold | 0.5 |
| ระยะเวลาความเงียบ | ...openai.silenceDurationMs | 500 |
| การเติมคำนำหน้า | ...openai.prefixPaddingMs | 300 |
| ระดับความพยายามในการให้เหตุผล | ...openai.reasoningEffort | (ไม่ได้ตั้งค่า) |
| การยืนยันตัวตน | ...openai.apiKey, OPENAI_API_KEY, หรือ OAuth openai-codex | Browser Talk และบริดจ์แบ็กเอนด์ที่ไม่ใช่ Azure สามารถใช้ Codex OAuth ได้ |
gpt-realtime-2: alloy, ash,
ballad, coral, echo, sage, shimmer, verse, marin, cedar
OpenAI แนะนำ marin และ cedar เพื่อคุณภาพ Realtime ที่ดีที่สุด ชุดนี้
เป็นชุดแยกจากเสียงแปลงข้อความเป็นเสียงข้างต้น; อย่าสันนิษฐานว่าเสียง TTS
เช่น fable, nova หรือ onyx ใช้ได้กับเซสชัน Realtimeบริดจ์ Realtime ของ OpenAI ฝั่งแบ็กเอนด์ใช้รูปแบบเซสชัน Realtime WebSocket แบบ GA ซึ่งไม่รับ
session.temperature การปรับใช้ Azure OpenAI ยังคงพร้อมใช้งานผ่าน azureEndpoint และ azureDeployment และรักษารูปแบบเซสชันที่เข้ากันได้กับการปรับใช้ไว้ รองรับการเรียกเครื่องมือสองทางและเสียง G.711 u-lawเสียง Realtime จะถูกเลือกเมื่อสร้างเซสชัน OpenAI อนุญาตให้เปลี่ยนฟิลด์เซสชัน
ส่วนใหญ่ภายหลังได้ แต่ไม่สามารถเปลี่ยนเสียงได้หลังจากโมเดลปล่อยเสียงออกมาใน
เซสชันนั้นแล้ว ขณะนี้ OpenClaw เปิดเผย id เสียง Realtime ในตัวเป็นสตริง
Control UI Talk ใช้เซสชัน Realtime ของ OpenAI บนเบราว์เซอร์พร้อม client secret
แบบชั่วคราวที่ Gateway ออกให้ และการแลกเปลี่ยน SDP ของ WebRTC จากเบราว์เซอร์โดยตรงกับ
OpenAI Realtime API เมื่อไม่ได้กำหนดค่าคีย์ OpenAI API โดยตรง
Gateway สามารถออก client secret นั้นด้วยโปรไฟล์ OAuth
openai-codex
ที่เลือกไว้ได้ Gateway relay และบริดจ์ WebSocket Realtime ฝั่งแบ็กเอนด์ของ Voice Call ใช้
OAuth fallback เดียวกันสำหรับปลายทาง OpenAI แบบเนทีฟ การตรวจสอบแบบสดสำหรับผู้ดูแล
มีให้ใช้งานด้วย
OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts;
ขา OpenAI ตรวจสอบทั้งบริดจ์ WebSocket ฝั่งแบ็กเอนด์และการแลกเปลี่ยน SDP ของ WebRTC
บนเบราว์เซอร์โดยไม่บันทึกความลับปลายทาง Azure OpenAI
ผู้ให้บริการopenai ที่รวมมาให้สามารถกำหนดเป้าหมายไปยังทรัพยากร Azure OpenAI สำหรับการสร้างภาพ
ได้โดยการแทนที่ URL ฐาน บนเส้นทางการสร้างภาพ OpenClaw
ตรวจจับชื่อโฮสต์ Azure บน models.providers.openai.baseUrl และสลับไปใช้
รูปแบบคำขอของ Azure โดยอัตโนมัติ
เสียง Realtime ใช้เส้นทางการกำหนดค่าแยกต่างหาก
(
plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint)
และไม่ได้รับผลกระทบจาก models.providers.openai.baseUrl ดูแอคคอร์เดียน เสียง
Realtime ใต้ เสียงและการพูด สำหรับการตั้งค่า Azure
ของส่วนนี้- คุณมีการสมัครใช้งาน Azure OpenAI, quota หรือข้อตกลงระดับองค์กรอยู่แล้ว
- คุณต้องการการพำนักของข้อมูลตามภูมิภาคหรือการควบคุมการปฏิบัติตามข้อกำหนดที่ Azure มีให้
- คุณต้องการให้ทราฟฟิกอยู่ภายใน Azure tenancy ที่มีอยู่
การกำหนดค่า
สำหรับการสร้างภาพผ่าน Azure ด้วยผู้ให้บริการopenai ที่รวมมาให้ ให้ชี้
models.providers.openai.baseUrl ไปยังทรัพยากร Azure ของคุณและตั้งค่า apiKey เป็น
คีย์ Azure OpenAI (ไม่ใช่คีย์ OpenAI Platform):
*.openai.azure.com*.services.ai.azure.com*.cognitiveservices.azure.com
- ส่งส่วนหัว
api-keyแทนAuthorization: Bearer - ใช้เส้นทางที่มีขอบเขตตามการปรับใช้ (
/openai/deployments/{deployment}/...) - ต่อท้าย
?api-version=...ในแต่ละคำขอ - ใช้ timeout คำขอเริ่มต้น 600 วินาทีสำหรับการเรียกสร้างภาพของ Azure
ค่า
timeoutMsรายการต่อการเรียกยังคงแทนที่ค่าเริ่มต้นนี้
การกำหนดเส้นทาง Azure สำหรับเส้นทางการสร้างภาพของผู้ให้บริการ
openai ต้องใช้
OpenClaw 2026.4.22 หรือใหม่กว่า เวอร์ชันก่อนหน้าจะถือว่า
openai.baseUrl แบบกำหนดเองใด ๆ เป็นเหมือนปลายทาง OpenAI สาธารณะ และจะล้มเหลวกับการปรับใช้
ภาพของ Azureเวอร์ชัน API
ตั้งค่าAZURE_OPENAI_API_VERSION เพื่อปักหมุดเวอร์ชันตัวอย่าง Azure หรือเวอร์ชัน GA เฉพาะ
สำหรับเส้นทางการสร้างภาพของ Azure:
2024-12-01-preview เมื่อไม่ได้ตั้งค่าตัวแปรนี้
ชื่อโมเดลคือชื่อ deployment
Azure OpenAI ผูกโมเดลกับ deployment สำหรับคำขอสร้างภาพของ Azure ที่ถูกส่งผ่าน provideropenai ที่รวมมาให้ ฟิลด์ model ใน OpenClaw
ต้องเป็น ชื่อ Azure deployment ที่คุณกำหนดค่าไว้ในพอร์ทัล Azure ไม่ใช่
id โมเดล OpenAI สาธารณะ
หากคุณสร้าง deployment ชื่อ gpt-image-2-prod ที่ให้บริการ gpt-image-2:
openai ที่รวมมาให้ด้วย
ความพร้อมใช้งานตามภูมิภาค
ขณะนี้การสร้างภาพของ Azure พร้อมใช้งานเฉพาะในบางภูมิภาคเท่านั้น (เช่นeastus2, swedencentral, polandcentral, westus3,
uaenorth) ตรวจสอบรายการภูมิภาคปัจจุบันของ Microsoft ก่อนสร้าง
deployment และยืนยันว่าโมเดลที่ต้องการมีให้บริการในภูมิภาคของคุณ
ความแตกต่างของพารามิเตอร์
Azure OpenAI และ OpenAI สาธารณะไม่ได้ยอมรับพารามิเตอร์ภาพชุดเดียวกันเสมอไป Azure อาจปฏิเสธตัวเลือกที่ OpenAI สาธารณะอนุญาต (เช่น ค่าbackground บางค่าบน gpt-image-2) หรือเปิดให้ใช้เฉพาะกับเวอร์ชันโมเดล
บางเวอร์ชันเท่านั้น ความแตกต่างเหล่านี้มาจาก Azure และโมเดลพื้นฐาน ไม่ใช่
OpenClaw หากคำขอ Azure ล้มเหลวด้วยข้อผิดพลาดการตรวจสอบความถูกต้อง ให้ตรวจสอบ
ชุดพารามิเตอร์ที่ deployment และเวอร์ชัน API เฉพาะของคุณรองรับใน
พอร์ทัล Azure
Azure OpenAI ใช้การส่งผ่านแบบเนทีฟและพฤติกรรมความเข้ากันได้ แต่ไม่ได้รับ
ส่วนหัวการระบุแหล่งที่มาที่ซ่อนอยู่ของ OpenClaw — ดูแอคคอร์เดียน เส้นทางเนทีฟเทียบกับเส้นทางที่เข้ากันได้กับ OpenAI
ใต้ การกำหนดค่าขั้นสูงสำหรับทราฟฟิกแชตหรือ Responses บน Azure (นอกเหนือจากการสร้างภาพ) ให้ใช้
โฟลว์ onboarding หรือ config provider Azure เฉพาะ —
openai.baseUrl เพียงอย่างเดียว
จะไม่รับรูปแบบ API/auth ของ Azure มี provider
azure-openai-responses/* แยกต่างหาก โปรดดูแอคคอร์เดียน Compaction ฝั่งเซิร์ฟเวอร์ด้านล่างการกำหนดค่าขั้นสูง
การส่งผ่าน (WebSocket กับ SSE)
การส่งผ่าน (WebSocket กับ SSE)
OpenClaw ใช้ WebSocket ก่อน โดยมี SSE เป็นทางสำรอง (
เอกสาร OpenAI ที่เกี่ยวข้อง:
"auto") สำหรับ openai/*ในโหมด "auto" OpenClaw จะ:- ลอง WebSocket ซ้ำหนึ่งครั้งเมื่อเกิดความล้มเหลวตั้งแต่ต้น ก่อนถอยกลับไปใช้ SSE
- หลังเกิดความล้มเหลว ทำเครื่องหมาย WebSocket ว่าเสื่อมคุณภาพประมาณ 60 วินาที และใช้ SSE ระหว่างช่วงพัก
- แนบส่วนหัวตัวตน session และ turn ที่เสถียรสำหรับการลองใหม่และการเชื่อมต่อใหม่
- ปรับตัวนับการใช้งาน (
input_tokens/prompt_tokens) ให้เป็นรูปแบบเดียวกันในตัวแปรการส่งผ่านต่าง ๆ
| ค่า | พฤติกรรม |
|---|---|
"auto" (ค่าเริ่มต้น) | ใช้ WebSocket ก่อน และมี SSE เป็นทางสำรอง |
"sse" | บังคับใช้เฉพาะ SSE |
"websocket" | บังคับใช้เฉพาะ WebSocket |
โหมดเร็ว
โหมดเร็ว
OpenClaw เปิดเผยสวิตช์โหมดเร็วแบบใช้ร่วมกันสำหรับ
openai/*:- แชต/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
service_tier = "priority") ค่า service_tier ที่มีอยู่จะถูกคงไว้ และโหมดเร็วจะไม่เขียน reasoning หรือ text.verbosity ใหม่การ override ของ session มีผลเหนือกว่า config การล้าง override ของ session ใน UI Sessions จะคืน session กลับเป็นค่าเริ่มต้นที่กำหนดค่าไว้
การประมวลผลแบบมีลำดับความสำคัญ (service_tier)
การประมวลผลแบบมีลำดับความสำคัญ (service_tier)
API ของ OpenAI เปิดให้ใช้การประมวลผลแบบมีลำดับความสำคัญผ่าน ค่าที่รองรับ:
service_tier ตั้งค่าแยกตามโมเดลใน OpenClaw:auto, default, flex, priorityCompaction ฝั่งเซิร์ฟเวอร์ (Responses API)
Compaction ฝั่งเซิร์ฟเวอร์ (Responses API)
สำหรับโมเดล OpenAI Responses โดยตรง (
openai/* บน api.openai.com) ตัวครอบสตรีม Pi-harness ของ Plugin OpenAI จะเปิดใช้ Compaction ฝั่งเซิร์ฟเวอร์โดยอัตโนมัติ:- บังคับ
store: true(เว้นแต่ความเข้ากันได้ของโมเดลตั้งค่าsupportsStore: false) - แทรก
context_management: [{ type: "compaction", compact_threshold: ... }] - ค่าเริ่มต้นของ
compact_threshold: 70% ของcontextWindow(หรือ80000เมื่อไม่มีข้อมูล)
- เปิดใช้อย่างชัดเจน
- เกณฑ์กำหนดเอง
- ปิดใช้งาน
มีประโยชน์สำหรับ endpoint ที่เข้ากันได้ เช่น Azure OpenAI Responses:
responsesServerCompaction ควบคุมเฉพาะการแทรก context_management เท่านั้น โมเดล OpenAI Responses โดยตรงยังคงบังคับ store: true เว้นแต่ความเข้ากันได้จะตั้งค่า supportsStore: falseโหมด GPT แบบ strict-agentic
โหมด GPT แบบ strict-agentic
สำหรับการรันตระกูล GPT-5 บน ด้วย
openai/* OpenClaw สามารถใช้สัญญาการดำเนินการแบบฝังตัวที่เข้มงวดกว่าได้:strict-agentic OpenClaw จะ:- ไม่ถือว่า turn ที่มีเฉพาะแผนเป็นความคืบหน้าที่สำเร็จอีกต่อไป เมื่อมีการดำเนินการ tool พร้อมใช้งาน
- ลอง turn ซ้ำด้วยการชี้นำให้ลงมือทำทันที
- เปิดใช้
update_planโดยอัตโนมัติสำหรับงานที่มีนัยสำคัญ - แสดงสถานะถูกบล็อกอย่างชัดเจน หากโมเดลยังคงวางแผนโดยไม่ลงมือทำ
จำกัดเฉพาะการรันตระกูล GPT-5 ของ OpenAI และ Codex เท่านั้น provider อื่นและตระกูลโมเดลเก่ากว่าจะคงพฤติกรรมเริ่มต้นไว้
เส้นทางเนทีฟเทียบกับเส้นทางที่เข้ากันได้กับ OpenAI
เส้นทางเนทีฟเทียบกับเส้นทางที่เข้ากันได้กับ OpenAI
OpenClaw ปฏิบัติต่อ endpoint OpenAI, Codex และ Azure OpenAI โดยตรงต่างจาก proxy
/v1 ทั่วไปที่เข้ากันได้กับ OpenAI:เส้นทางเนทีฟ (openai/*, Azure OpenAI):- คง
reasoning: { effort: "none" }ไว้เฉพาะสำหรับโมเดลที่รองรับ effortnoneของ OpenAI - ละเว้น reasoning ที่ปิดใช้งานสำหรับโมเดลหรือ proxy ที่ปฏิเสธ
reasoning.effort: "none" - ตั้งค่าเริ่มต้นของ schema ของ tool เป็นโหมด strict
- แนบส่วนหัวการระบุแหล่งที่มาที่ซ่อนอยู่เฉพาะบนโฮสต์เนทีฟที่ยืนยันแล้ว
- คงการจัดรูปคำขอเฉพาะ OpenAI (
service_tier,store, reasoning-compat, hint ของ prompt-cache)
- ใช้พฤติกรรมความเข้ากันได้ที่ยืดหยุ่นกว่า
- ตัด
storeของ Completions ออกจาก payloadopenai-completionsที่ไม่ใช่เนทีฟ - ยอมรับ JSON pass-through ขั้นสูง
params.extra_body/params.extraBodyสำหรับ proxy Completions ที่เข้ากันได้กับ OpenAI - ยอมรับ
params.chat_template_kwargsสำหรับ proxy Completions ที่เข้ากันได้กับ OpenAI เช่น vLLM - ไม่บังคับใช้ schema ของ tool แบบ strict หรือส่วนหัวเฉพาะเนทีฟ
ที่เกี่ยวข้อง
การเลือกโมเดล
การเลือก provider, model ref และพฤติกรรม failover
การสร้างภาพ
พารามิเตอร์ tool ภาพที่ใช้ร่วมกันและการเลือก provider
การสร้างวิดีโอ
พารามิเตอร์ tool วิดีโอที่ใช้ร่วมกันและการเลือก provider
OAuth และ auth
รายละเอียด auth และกฎการนำข้อมูลรับรองกลับมาใช้