Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

OpenAI มี API สำหรับนักพัฒนาสำหรับโมเดล GPT และ Codex ยังพร้อมใช้งานเป็นเอเจนต์เขียนโค้ดตามแผน ChatGPT ผ่านไคลเอนต์ Codex ของ OpenAI ด้วย OpenClaw แยกพื้นผิวเหล่านั้นออกจากกันเพื่อให้การกำหนดค่าคาดเดาได้ OpenClaw ใช้ openai/* เป็นเส้นทางโมเดล OpenAI มาตรฐาน เทิร์นเอเจนต์แบบฝังบนโมเดล OpenAI จะรันผ่านรันไทม์แอปเซิร์ฟเวอร์ Codex แบบเนทีฟตามค่าเริ่มต้น; การยืนยันตัวตนด้วยคีย์ OpenAI API โดยตรงยังคงพร้อมใช้งานสำหรับพื้นผิว OpenAI ที่ไม่ใช่เอเจนต์ เช่น รูปภาพ, embeddings, เสียงพูด และเรียลไทม์
  • โมเดลเอเจนต์ - โมเดล openai/* ผ่านรันไทม์ Codex; ลงชื่อเข้าใช้ด้วยการยืนยันตัวตน Codex สำหรับการใช้งานผ่านการสมัครสมาชิก ChatGPT/Codex หรือกำหนดค่าโปรไฟล์สำรองคีย์ OpenAI API ที่เข้ากันได้กับ Codex เมื่อคุณตั้งใจต้องการการยืนยันตัวตนด้วยคีย์ API
  • OpenAI API ที่ไม่ใช่เอเจนต์ - การเข้าถึง OpenAI Platform โดยตรงพร้อมการเรียกเก็บเงินตามการใช้งานผ่าน OPENAI_API_KEY หรือการเริ่มต้นใช้งานคีย์ OpenAI API
  • การกำหนดค่าเดิม - การอ้างอิงโมเดล openai-codex/* จะถูกซ่อมโดย openclaw doctor --fix เป็น openai/* พร้อมรันไทม์ Codex
OpenAI รองรับการใช้งาน OAuth จากการสมัครสมาชิกในเครื่องมือและเวิร์กโฟลว์ภายนอกอย่าง OpenClaw อย่างชัดเจน ผู้ให้บริการ, โมเดล, รันไทม์ และช่องทางเป็นเลเยอร์ที่แยกจากกัน หากป้ายกำกับเหล่านี้เริ่มปนกัน ให้อ่าน รันไทม์เอเจนต์ ก่อนเปลี่ยนการกำหนดค่า

ตัวเลือกด่วน

เป้าหมายใช้หมายเหตุ
การสมัครสมาชิก ChatGPT/Codex พร้อมรันไทม์ Codex แบบเนทีฟopenai/gpt-5.5การตั้งค่าเอเจนต์ OpenAI เริ่มต้น ลงชื่อเข้าใช้ด้วยการยืนยันตัวตน Codex
การเรียกเก็บเงินด้วยคีย์ API โดยตรงสำหรับโมเดลเอเจนต์openai/gpt-5.5 พร้อมโปรไฟล์คีย์ API ที่เข้ากันได้กับ Codexใช้ auth.order.openai เพื่อวางโปรไฟล์สำรองไว้หลังการยืนยันตัวตนแบบสมัครสมาชิก
การเรียกเก็บเงินด้วยคีย์ API โดยตรงผ่าน PI แบบชัดเจนopenai/gpt-5.5 พร้อมรันไทม์ผู้ให้บริการ/โมเดล piเลือกโปรไฟล์คีย์ API openai ปกติ
alias API ของ ChatGPT Instant ล่าสุดopenai/chat-latestใช้คีย์ API โดยตรงเท่านั้น alias ที่เปลี่ยนไปสำหรับการทดลอง ไม่ใช่ค่าเริ่มต้น
การยืนยันตัวตนการสมัครสมาชิก ChatGPT/Codex ผ่าน PI แบบชัดเจนopenai/gpt-5.5 พร้อมรันไทม์ผู้ให้บริการ/โมเดล piเลือกโปรไฟล์การยืนยันตัวตน openai-codex สำหรับเส้นทางความเข้ากันได้
การสร้างหรือแก้ไขรูปภาพopenai/gpt-image-2ใช้งานได้กับทั้ง OPENAI_API_KEY หรือ OpenAI Codex OAuth
รูปภาพพื้นหลังโปร่งใสopenai/gpt-image-1.5ใช้ outputFormat=png หรือ webp และ openai.background=transparent

แผนที่ชื่อ

ชื่อคล้ายกันแต่ใช้แทนกันไม่ได้:
ชื่อที่คุณเห็นเลเยอร์ความหมาย
openaiคำนำหน้าผู้ให้บริการเส้นทางโมเดล OpenAI มาตรฐาน; เทิร์นเอเจนต์ใช้รันไทม์ Codex
openai-codexคำนำหน้าการยืนยันตัวตน/โปรไฟล์เดิมเนมสเปซโปรไฟล์ OAuth/การสมัครสมาชิก OpenAI Codex รุ่นเก่า โปรไฟล์ที่มีอยู่และ auth.order.openai-codex ยังใช้งานได้
codex pluginPluginPlugin OpenClaw ที่มาพร้อมระบบซึ่งให้รันไทม์แอปเซิร์ฟเวอร์ Codex แบบเนทีฟและการควบคุมแชต /codex
provider/model agentRuntime.id: codexรันไทม์เอเจนต์บังคับใช้ harness แอปเซิร์ฟเวอร์ Codex แบบเนทีฟสำหรับเทิร์นแบบฝังที่ตรงกัน
/codex ...ชุดคำสั่งแชตผูก/ควบคุมเธรดแอปเซิร์ฟเวอร์ Codex จากการสนทนา
runtime: "acp", agentId: "codex"เส้นทางเซสชัน ACPเส้นทางสำรองที่ชัดเจนซึ่งรัน Codex ผ่าน ACP/acpx
ซึ่งหมายความว่าการกำหนดค่าสามารถตั้งใจมีการอ้างอิงโมเดล openai/* ในขณะที่โปรไฟล์การยืนยันตัวตนยังชี้ไปยังข้อมูลประจำตัวที่เข้ากันได้กับ Codex ได้ ควรใช้ auth.order.openai สำหรับการกำหนดค่าใหม่; โปรไฟล์ openai-codex:* และ auth.order.openai-codex ที่มีอยู่ยังคงรองรับอยู่ openclaw doctor --fix จะเขียนการอ้างอิงโมเดล openai-codex/* เดิมใหม่เป็นเส้นทางโมเดล OpenAI มาตรฐาน
GPT-5.5 พร้อมใช้งานผ่านทั้งการเข้าถึงด้วยคีย์ API ของ OpenAI Platform โดยตรงและเส้นทางการสมัครสมาชิก/OAuth สำหรับการสมัครสมาชิก ChatGPT/Codex พร้อมการรัน Codex แบบเนทีฟ ให้ใช้ openai/gpt-5.5; การไม่ตั้งค่ารันไทม์ตอนนี้จะเลือก harness Codex สำหรับเทิร์นเอเจนต์ OpenAI ใช้โปรไฟล์คีย์ OpenAI API เฉพาะเมื่อคุณต้องการการยืนยันตัวตนด้วยคีย์ API โดยตรงสำหรับโมเดลเอเจนต์ OpenAI
เทิร์นโมเดลเอเจนต์ OpenAI ต้องใช้ Plugin แอปเซิร์ฟเวอร์ Codex ที่มาพร้อมระบบ การกำหนดค่ารันไทม์ PI แบบชัดเจนยังคงพร้อมใช้งานเป็นเส้นทางความเข้ากันได้แบบเลือกใช้ เมื่อเลือก PI อย่างชัดเจนพร้อมโปรไฟล์การยืนยันตัวตน openai-codex OpenClaw จะคงการอ้างอิงโมเดลสาธารณะเป็น openai/* และกำหนดเส้นทาง PI ภายในผ่านการขนส่งการยืนยันตัวตน Codex แบบเดิม รัน openclaw doctor --fix เพื่อซ่อมการอ้างอิงโมเดล openai-codex/* ที่ล้าสมัย หรือพินเซสชัน PI เก่าที่ไม่ได้มาจากการกำหนดค่ารันไทม์แบบชัดเจน

ความครอบคลุมฟีเจอร์ของ OpenClaw

ความสามารถของ OpenAIพื้นผิว OpenClawสถานะ
แชต / Responsesผู้ให้บริการโมเดล openai/<model>ใช่
โมเดลการสมัครสมาชิก Codexopenai/<model> พร้อม OAuth openai-codexใช่
การอ้างอิงโมเดล Codex เดิมopenai-codex/<model>ถูกซ่อมโดย doctor เป็น openai/<model>
harness แอปเซิร์ฟเวอร์ Codexopenai/<model> พร้อมรันไทม์ที่ละไว้ หรือผู้ให้บริการ/โมเดล agentRuntime.id: codexใช่
การค้นหาเว็บฝั่งเซิร์ฟเวอร์เครื่องมือ OpenAI Responses แบบเนทีฟใช่ เมื่อเปิดใช้งานการค้นหาเว็บและไม่มีการพินผู้ให้บริการ
รูปภาพimage_generateใช่
วิดีโอvideo_generateใช่
ข้อความเป็นเสียงพูดmessages.tts.provider: "openai" / ttsใช่
การถอดเสียงพูดเป็นข้อความแบบชุดtools.media.audio / ความเข้าใจสื่อใช่
การถอดเสียงพูดเป็นข้อความแบบสตรีมVoice Call streaming.provider: "openai"ใช่
เสียงเรียลไทม์Voice Call realtime.provider: "openai" / Control UI Talkใช่
Embeddingsผู้ให้บริการ embedding หน่วยความจำใช่

Embeddings หน่วยความจำ

OpenClaw สามารถใช้ OpenAI หรือปลายทาง embedding ที่เข้ากันได้กับ OpenAI สำหรับการทำดัชนี memory_search และ embeddings สำหรับคำค้นหา:
{
  agents: {
    defaults: {
      memorySearch: {
        provider: "openai",
        model: "text-embedding-3-small",
      },
    },
  },
}
สำหรับปลายทางที่เข้ากันได้กับ OpenAI ซึ่งต้องใช้ป้ายกำกับ embedding แบบอสมมาตร ให้ตั้งค่า queryInputType และ documentInputType ใต้ memorySearch OpenClaw จะส่งต่อค่าเหล่านั้นเป็นฟิลด์คำขอ input_type เฉพาะผู้ให้บริการ: embeddings สำหรับคำค้นหาใช้ queryInputType; ชังก์หน่วยความจำที่ทำดัชนีและการทำดัชนีแบบชุดใช้ documentInputType ดูตัวอย่างเต็มได้ที่ ข้อมูลอ้างอิงการกำหนดค่าหน่วยความจำ

เริ่มต้นใช้งาน

เลือกวิธีการยืนยันตัวตนที่คุณต้องการ แล้วทำตามขั้นตอนการตั้งค่า
เหมาะสำหรับ: การเข้าถึง API โดยตรงและการเรียกเก็บเงินตามการใช้งาน
1

รับคีย์ API ของคุณ

สร้างหรือคัดลอกคีย์ API จาก แดชบอร์ด OpenAI Platform
2

รันการเริ่มต้นใช้งาน

openclaw onboard --auth-choice openai-api-key
หรือส่งคีย์โดยตรง:
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
3

ตรวจสอบว่าโมเดลพร้อมใช้งาน

openclaw models list --provider openai

สรุปเส้นทาง

การอ้างอิงโมเดลการกำหนดค่ารันไทม์เส้นทางการยืนยันตัวตน
openai/gpt-5.5ละไว้ / ผู้ให้บริการ/โมเดล agentRuntime.id: "codex"harness แอปเซิร์ฟเวอร์ Codexโปรไฟล์ OpenAI ที่เข้ากันได้กับ Codex
openai/gpt-5.4-miniละไว้ / ผู้ให้บริการ/โมเดล agentRuntime.id: "codex"harness แอปเซิร์ฟเวอร์ Codexโปรไฟล์ OpenAI ที่เข้ากันได้กับ Codex
openai/gpt-5.5ผู้ให้บริการ/โมเดล agentRuntime.id: "pi"รันไทม์แบบฝัง PIโปรไฟล์ openai หรือโปรไฟล์ openai-codex ที่เลือก
โมเดลเอเจนต์ openai/* ใช้ harness แอปเซิร์ฟเวอร์ Codex หากต้องการใช้การยืนยันตัวตนด้วยคีย์ API สำหรับโมเดลเอเจนต์ ให้สร้างโปรไฟล์คีย์ API ที่เข้ากันได้กับ Codex แล้วจัดลำดับด้วย auth.order.openai; OPENAI_API_KEY ยังคงเป็นตัวสำรองโดยตรงสำหรับพื้นผิว OpenAI API ที่ไม่ใช่เอเจนต์ รายการ auth.order.openai-codex รุ่นเก่ายังคงใช้งานได้

ตัวอย่างการกำหนดค่า

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.5" } } },
}
หากต้องการลองโมเดล Instant ปัจจุบันของ ChatGPT จาก OpenAI API ให้ตั้งค่าโมเดลเป็น openai/chat-latest:
{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/chat-latest" } } },
}
chat-latest เป็น alias ที่เปลี่ยนไป OpenAI ระบุว่าเป็นโมเดล Instant ล่าสุดที่ใช้ใน ChatGPT และแนะนำ gpt-5.5 สำหรับการใช้งาน API ในโปรดักชัน ดังนั้นให้คง openai/gpt-5.5 เป็นค่าเริ่มต้นที่เสถียร เว้นแต่คุณต้องการพฤติกรรม alias นั้นอย่างชัดเจน ปัจจุบัน alias นี้ยอมรับความละเอียดของข้อความเฉพาะ medium เท่านั้น ดังนั้น OpenClaw จะปรับ override ความละเอียดข้อความ OpenAI ที่เข้ากันไม่ได้สำหรับโมเดลนี้ให้เป็นปกติ
OpenClaw ไม่ เปิดเผย openai/gpt-5.3-codex-spark คำขอ OpenAI API แบบสดจะปฏิเสธโมเดลนั้น และแค็ตตาล็อก Codex ปัจจุบันก็ไม่เปิดเผยเช่นกัน

Auth แอปเซิร์ฟเวอร์ Codex แบบเนทีฟ

ฮาร์เนสแอปเซิร์ฟเวอร์ Codex แบบเนทีฟใช้การอ้างอิงโมเดล openai/* ร่วมกับการละเว้น การกำหนดค่า runtime หรือ provider/model agentRuntime.id: "codex" แต่ auth ของมัน ยังคงอิงตามบัญชี OpenClaw เลือก auth ตามลำดับนี้:
  1. โปรไฟล์ auth OpenAI ตามลำดับสำหรับเอเจนต์ โดยควรอยู่ใต้ auth.order.openai โปรไฟล์ openai-codex:* ที่มีอยู่และ auth.order.openai-codex ยังคงใช้ได้สำหรับการติดตั้งรุ่นเก่า
  2. บัญชีที่มีอยู่ของแอปเซิร์ฟเวอร์ เช่น การลงชื่อเข้าใช้ ChatGPT ของ Codex CLI ในเครื่อง
  3. สำหรับการเปิดใช้แอปเซิร์ฟเวอร์ stdio ในเครื่องเท่านั้น CODEX_API_KEY จากนั้น OPENAI_API_KEY เมื่อแอปเซิร์ฟเวอร์รายงานว่าไม่มีบัญชีและยังต้องการ OpenAI auth
ซึ่งหมายความว่าการลงชื่อเข้าใช้การสมัครใช้งาน ChatGPT/Codex ในเครื่องจะไม่ถูกแทนที่เพียง เพราะกระบวนการ gateway มี OPENAI_API_KEY สำหรับโมเดล OpenAI โดยตรง หรือ embeddings ด้วย การ fallback ไปใช้ env API-key เป็นเส้นทาง stdio ในเครื่องที่ไม่มีบัญชีเท่านั้น; จะไม่ถูกส่งไปยังการเชื่อมต่อแอปเซิร์ฟเวอร์ WebSocket เมื่อเลือกโปรไฟล์ Codex แบบการสมัครใช้งาน OpenClaw ยังกัน CODEX_API_KEY และ OPENAI_API_KEY ออกจาก child แอปเซิร์ฟเวอร์ stdio ที่ spawn ขึ้นมา และส่งข้อมูลประจำตัวที่เลือก ผ่าน RPC login ของแอปเซิร์ฟเวอร์ เมื่อโปรไฟล์การสมัครใช้งานนั้นถูกบล็อกโดย ขีดจำกัดการใช้งาน Codex OpenClaw สามารถสลับไปยังโปรไฟล์ API-key openai:* ลำดับถัดไปได้โดยไม่เปลี่ยนโมเดลที่เลือกหรือออกจากฮาร์เนส Codex เมื่อเวลาการรีเซ็ตของการสมัครใช้งานผ่านไป โปรไฟล์การสมัครใช้งานจะมีสิทธิ์ใช้งานอีกครั้ง

การสร้างรูปภาพ

Plugin openai ที่บันเดิลมาจะลงทะเบียนการสร้างรูปภาพผ่านเครื่องมือ image_generate รองรับทั้งการสร้างรูปภาพด้วย API-key ของ OpenAI และการสร้างรูปภาพด้วย Codex OAuth ผ่านอ้างอิงโมเดล openai/gpt-image-2 เดียวกัน
ความสามารถOpenAI API keyCodex OAuth
อ้างอิงโมเดลopenai/gpt-image-2openai/gpt-image-2
AuthOPENAI_API_KEYการลงชื่อเข้าใช้ OpenAI Codex OAuth
ทรานสปอร์ตOpenAI Images APIแบ็กเอนด์ Codex Responses
จำนวนรูปภาพสูงสุดต่อคำขอ44
โหมดแก้ไขเปิดใช้ (สูงสุด 5 รูปภาพอ้างอิง)เปิดใช้ (สูงสุด 5 รูปภาพอ้างอิง)
การเขียนทับขนาดรองรับ รวมถึงขนาด 2K/4Kรองรับ รวมถึงขนาด 2K/4K
อัตราส่วนภาพ / ความละเอียดไม่ส่งต่อไปยัง OpenAI Images APIแมปเป็นขนาดที่รองรับเมื่อปลอดภัย
{
  agents: {
    defaults: {
      imageGenerationModel: { primary: "openai/gpt-image-2" },
    },
  },
}
ดู การสร้างรูปภาพ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือก provider และพฤติกรรม failover
gpt-image-2 เป็นค่าเริ่มต้นสำหรับทั้งการสร้างรูปภาพจากข้อความของ OpenAI และการ แก้ไขรูปภาพ gpt-image-1.5, gpt-image-1 และ gpt-image-1-mini ยังคงใช้งานได้ในฐานะ การเขียนทับโมเดลอย่างชัดเจน ใช้ openai/gpt-image-1.5 สำหรับเอาต์พุต PNG/WebP พื้นหลังโปร่งใส; API gpt-image-2 ปัจจุบันปฏิเสธ background: "transparent" สำหรับคำขอพื้นหลังโปร่งใส เอเจนต์ควรเรียก image_generate ด้วย model: "openai/gpt-image-1.5", outputFormat: "png" หรือ "webp" และ background: "transparent"; ตัวเลือก provider openai.background รุ่นเก่า ยังคงได้รับการยอมรับ OpenClaw ยังปกป้องเส้นทาง OpenAI สาธารณะและ OpenAI Codex OAuth โดยเขียนคำขอพื้นหลังโปร่งใส openai/gpt-image-2 เริ่มต้น ใหม่เป็น gpt-image-1.5; Azure และปลายทางแบบเข้ากันได้กับ OpenAI แบบกำหนดเองจะคง ชื่อ deployment/model ที่กำหนดค่าไว้ การตั้งค่าเดียวกันนี้เปิดเผยสำหรับการรัน CLI แบบไม่มีหน้าจอด้วย:
openclaw infer image generate \
  --model openai/gpt-image-1.5 \
  --output-format png \
  --background transparent \
  --prompt "A simple red circle sticker on a transparent background" \
  --json
ใช้ flag --output-format และ --background เดียวกันกับ openclaw infer image edit เมื่อเริ่มจากไฟล์อินพุต --openai-background ยังคงพร้อมใช้งานในฐานะ alias เฉพาะ OpenAI สำหรับการติดตั้ง Codex OAuth ให้คงอ้างอิง openai/gpt-image-2 เดิมไว้ เมื่อมีการกำหนดค่า โปรไฟล์ OAuth openai-codex OpenClaw จะแปลงโทเค็นการเข้าถึง OAuth ที่จัดเก็บไว้และส่งคำขอรูปภาพผ่านแบ็กเอนด์ Codex Responses โดยจะไม่ ลองใช้ OPENAI_API_KEY ก่อนหรือ fallback ไปยัง API key สำหรับคำขอนั้นแบบเงียบๆ ให้กำหนดค่า models.providers.openai อย่างชัดเจนด้วย API key, URL ฐานแบบกำหนดเอง หรือปลายทาง Azure เมื่อคุณต้องการเส้นทาง OpenAI Images API โดยตรงแทน หากปลายทางรูปภาพแบบกำหนดเองนั้นอยู่บนที่อยู่ LAN/private ที่เชื่อถือได้ ให้ตั้งค่า browser.ssrfPolicy.dangerouslyAllowPrivateNetwork: true ด้วย; OpenClaw จะบล็อก ปลายทางรูปภาพแบบเข้ากันได้กับ OpenAI ที่เป็น private/internal ไว้ เว้นแต่จะมีการเลือกใช้ นี้ สร้าง:
/tool image_generate model=openai/gpt-image-2 prompt="A polished launch poster for OpenClaw on macOS" size=3840x2160 count=1
สร้าง PNG พื้นหลังโปร่งใส:
/tool image_generate model=openai/gpt-image-1.5 prompt="A simple red circle sticker on a transparent background" outputFormat=png background=transparent
แก้ไข:
/tool image_generate model=openai/gpt-image-2 prompt="Preserve the object shape, change the material to translucent glass" image=/path/to/reference.png size=1024x1536

การสร้างวิดีโอ

Plugin openai ที่มาพร้อมระบบลงทะเบียนการสร้างวิดีโอผ่านเครื่องมือ video_generate
ความสามารถค่า
โมเดลเริ่มต้นopenai/sora-2
โหมดข้อความเป็นวิดีโอ, รูปภาพเป็นวิดีโอ, แก้ไขวิดีโอเดี่ยว
อินพุตอ้างอิงรูปภาพ 1 รายการหรือวิดีโอ 1 รายการ
การแทนที่ขนาดรองรับ
การแทนที่อื่น ๆaspectRatio, resolution, audio, watermark จะถูกละเว้นพร้อมคำเตือนจากเครื่องมือ
{
  agents: {
    defaults: {
      videoGenerationModel: { primary: "openai/sora-2" },
    },
  },
}
ดู การสร้างวิดีโอ สำหรับพารามิเตอร์เครื่องมือที่ใช้ร่วมกัน การเลือกผู้ให้บริการ และพฤติกรรม failover

การสนับสนุนพรอมป์ GPT-5

OpenClaw เพิ่มการสนับสนุนพรอมป์ GPT-5 ที่ใช้ร่วมกันสำหรับการรันตระกูล GPT-5 ข้ามผู้ให้บริการ โดยใช้ตาม id ของโมเดล ดังนั้น openai/gpt-5.5, refs แบบเดิมก่อนการซ่อมแซม เช่น openai-codex/gpt-5.5, openrouter/openai/gpt-5.5, opencode/gpt-5.5 และ refs GPT-5 อื่น ๆ ที่เข้ากันได้จะได้รับ overlay เดียวกัน โมเดล GPT-4.x ที่เก่ากว่าจะไม่ได้รับ harness Codex แบบ native ที่มาพร้อมระบบใช้พฤติกรรม GPT-5 และ Heartbeat overlay เดียวกันผ่านคำสั่ง developer ของ app-server Codex ดังนั้นเซสชัน openai/gpt-5.x ที่ route ผ่าน Codex จะคงแนวทางการติดตามงานและ Heartbeat เชิงรุกแบบเดียวกัน แม้ว่า Codex จะเป็นเจ้าของพรอมป์ส่วนอื่นของ harness การสนับสนุน GPT-5 เพิ่มสัญญาพฤติกรรมแบบมีแท็กสำหรับการคงบุคลิก ความปลอดภัยในการดำเนินการ วินัยการใช้เครื่องมือ รูปแบบเอาต์พุต การตรวจสอบการเสร็จสิ้น และการยืนยันผล พฤติกรรมการตอบกลับเฉพาะช่องทางและข้อความเงียบยังคงอยู่ในพรอมป์ระบบ OpenClaw ที่ใช้ร่วมกันและนโยบายการส่งออก คำแนะนำ GPT-5 จะเปิดใช้งานเสมอสำหรับโมเดลที่ตรงกัน เลเยอร์สไตล์การโต้ตอบแบบเป็นมิตรแยกต่างหากและกำหนดค่าได้
ค่าผลลัพธ์
"friendly" (ค่าเริ่มต้น)เปิดใช้เลเยอร์สไตล์การโต้ตอบแบบเป็นมิตร
"on"alias สำหรับ "friendly"
"off"ปิดใช้เฉพาะเลเยอร์สไตล์แบบเป็นมิตร
{
  agents: {
    defaults: {
      promptOverlays: {
        gpt5: { personality: "friendly" },
      },
    },
  },
}
ค่าจะไม่แยกตัวพิมพ์เล็กใหญ่ขณะรัน ดังนั้นทั้ง "Off" และ "off" จะปิดใช้เลเยอร์สไตล์แบบเป็นมิตร
ค่าเดิม plugins.entries.openai.config.personality ยังคงถูกอ่านเป็น fallback เพื่อความเข้ากันได้ เมื่อยังไม่ได้ตั้งค่าการตั้งค่าที่ใช้ร่วมกัน agents.defaults.promptOverlays.gpt5.personality

เสียงและคำพูด

Plugin openai ที่มาพร้อมระบบลงทะเบียนการสังเคราะห์เสียงพูดสำหรับ surface messages.tts
การตั้งค่าpath การกำหนดค่าค่าเริ่มต้น
โมเดลmessages.tts.providers.openai.modelgpt-4o-mini-tts
เสียงmessages.tts.providers.openai.voicecoral
ความเร็วmessages.tts.providers.openai.speed(ไม่ได้ตั้งค่า)
คำสั่งmessages.tts.providers.openai.instructions(ไม่ได้ตั้งค่า, เฉพาะ gpt-4o-mini-tts)
รูปแบบmessages.tts.providers.openai.responseFormatopus สำหรับ voice notes, mp3 สำหรับไฟล์
คีย์ APImessages.tts.providers.openai.apiKeyfallback ไปที่ OPENAI_API_KEY
URL ฐานmessages.tts.providers.openai.baseUrlhttps://api.openai.com/v1
body เพิ่มเติมmessages.tts.providers.openai.extraBody / extra_body(ไม่ได้ตั้งค่า)
โมเดลที่มีให้ใช้: gpt-4o-mini-tts, tts-1, tts-1-hd เสียงที่มีให้ใช้: alloy, ash, ballad, cedar, coral, echo, fable, juniper, marin, onyx, nova, sage, shimmer, verseextraBody จะถูก merge เข้ากับ JSON คำขอ /audio/speech หลังฟิลด์ที่ OpenClaw สร้างขึ้น ดังนั้นให้ใช้สำหรับ endpoint ที่เข้ากันได้กับ OpenAI ซึ่งต้องการคีย์เพิ่มเติม เช่น lang คีย์ prototype จะถูกละเว้น
{
  messages: {
    tts: {
      providers: {
        openai: { model: "gpt-4o-mini-tts", voice: "coral" },
      },
    },
  },
}
ตั้งค่า OPENAI_TTS_BASE_URL เพื่อแทนที่ URL ฐานของ TTS โดยไม่กระทบ endpoint ของ chat API OpenAI TTS ยังคงกำหนดค่าผ่านคีย์ API; สำหรับ live talk-back ที่ใช้ OAuth เท่านั้น ให้ใช้ path เสียง Realtime แทนเสียงพูดแบบ agent-mode STT -> TTS
Plugin openai ที่มาพร้อมระบบลงทะเบียนเสียงพูดเป็นข้อความแบบแบตช์ผ่าน surface การถอดเสียงเพื่อทำความเข้าใจสื่อของ OpenClaw
  • โมเดลเริ่มต้น: gpt-4o-transcribe
  • Endpoint: OpenAI REST /v1/audio/transcriptions
  • path อินพุต: การอัปโหลดไฟล์เสียงแบบ multipart
  • รองรับโดย OpenClaw ทุกที่ที่การถอดเสียงขาเข้าใช้ tools.media.audio รวมถึงส่วนของช่องเสียง Discord และไฟล์แนบเสียง ของช่องทาง
หากต้องการบังคับใช้ OpenAI สำหรับการถอดเสียงขาเข้า:
{
  tools: {
    media: {
      audio: {
        models: [
          {
            type: "provider",
            provider: "openai",
            model: "gpt-4o-transcribe",
          },
        ],
      },
    },
  },
}
คำใบ้ภาษาและพรอมป์จะถูกส่งต่อไปยัง OpenAI เมื่อมีการระบุโดย การกำหนดค่าสื่อเสียงที่ใช้ร่วมกันหรือคำขอถอดเสียงรายครั้ง
Plugin openai ที่รวมมาให้ลงทะเบียนการถอดเสียงแบบเรียลไทม์สำหรับ Plugin Voice Call
การตั้งค่าเส้นทางการกำหนดค่าค่าเริ่มต้น
โมเดลplugins.entries.voice-call.config.streaming.providers.openai.modelgpt-4o-transcribe
ภาษา...openai.language(ไม่ได้ตั้งค่า)
พรอมป์...openai.prompt(ไม่ได้ตั้งค่า)
ระยะเวลาความเงียบ...openai.silenceDurationMs800
เกณฑ์ VAD...openai.vadThreshold0.5
การยืนยันตัวตน...openai.apiKey, OPENAI_API_KEY, หรือ OAuth openai-codexคีย์ API เชื่อมต่อโดยตรง; OAuth ออก client secret สำหรับการถอดเสียงแบบเรียลไทม์
ใช้การเชื่อมต่อ WebSocket ไปยัง wss://api.openai.com/v1/realtime พร้อมเสียง G.711 u-law (g711_ulaw / audio/pcmu) เมื่อกำหนดค่าเฉพาะ OAuth openai-codex เท่านั้น Gateway จะออก client secret สำหรับการถอดเสียงแบบเรียลไทม์แบบชั่วคราวก่อนเปิด WebSocket ผู้ให้บริการสตรีมมิงนี้ใช้สำหรับเส้นทางการถอดเสียงแบบเรียลไทม์ของ Voice Call; ขณะนี้เสียงของ Discord บันทึกช่วงสั้น ๆ และใช้เส้นทางการถอดเสียงแบบแบตช์ tools.media.audio แทน
Plugin openai ที่รวมมาให้ลงทะเบียนเสียงแบบเรียลไทม์สำหรับ Plugin Voice Call
การตั้งค่าเส้นทางการกำหนดค่าค่าเริ่มต้น
โมเดลplugins.entries.voice-call.config.realtime.providers.openai.modelgpt-realtime-2
เสียง...openai.voicealloy
อุณหภูมิ (บริดจ์การปรับใช้ Azure)...openai.temperature0.8
เกณฑ์ VAD...openai.vadThreshold0.5
ระยะเวลาความเงียบ...openai.silenceDurationMs500
การเติมคำนำหน้า...openai.prefixPaddingMs300
ระดับความพยายามในการให้เหตุผล...openai.reasoningEffort(ไม่ได้ตั้งค่า)
การยืนยันตัวตน...openai.apiKey, OPENAI_API_KEY, หรือ OAuth openai-codexBrowser Talk และบริดจ์แบ็กเอนด์ที่ไม่ใช่ Azure สามารถใช้ Codex OAuth ได้
เสียง Realtime ในตัวที่มีให้สำหรับ gpt-realtime-2: alloy, ash, ballad, coral, echo, sage, shimmer, verse, marin, cedar OpenAI แนะนำ marin และ cedar เพื่อคุณภาพ Realtime ที่ดีที่สุด ชุดนี้ เป็นชุดแยกจากเสียงแปลงข้อความเป็นเสียงข้างต้น; อย่าสันนิษฐานว่าเสียง TTS เช่น fable, nova หรือ onyx ใช้ได้กับเซสชัน Realtime
บริดจ์ Realtime ของ OpenAI ฝั่งแบ็กเอนด์ใช้รูปแบบเซสชัน Realtime WebSocket แบบ GA ซึ่งไม่รับ session.temperature การปรับใช้ Azure OpenAI ยังคงพร้อมใช้งานผ่าน azureEndpoint และ azureDeployment และรักษารูปแบบเซสชันที่เข้ากันได้กับการปรับใช้ไว้ รองรับการเรียกเครื่องมือสองทางและเสียง G.711 u-law
เสียง Realtime จะถูกเลือกเมื่อสร้างเซสชัน OpenAI อนุญาตให้เปลี่ยนฟิลด์เซสชัน ส่วนใหญ่ภายหลังได้ แต่ไม่สามารถเปลี่ยนเสียงได้หลังจากโมเดลปล่อยเสียงออกมาใน เซสชันนั้นแล้ว ขณะนี้ OpenClaw เปิดเผย id เสียง Realtime ในตัวเป็นสตริง
Control UI Talk ใช้เซสชัน Realtime ของ OpenAI บนเบราว์เซอร์พร้อม client secret แบบชั่วคราวที่ Gateway ออกให้ และการแลกเปลี่ยน SDP ของ WebRTC จากเบราว์เซอร์โดยตรงกับ OpenAI Realtime API เมื่อไม่ได้กำหนดค่าคีย์ OpenAI API โดยตรง Gateway สามารถออก client secret นั้นด้วยโปรไฟล์ OAuth openai-codex ที่เลือกไว้ได้ Gateway relay และบริดจ์ WebSocket Realtime ฝั่งแบ็กเอนด์ของ Voice Call ใช้ OAuth fallback เดียวกันสำหรับปลายทาง OpenAI แบบเนทีฟ การตรวจสอบแบบสดสำหรับผู้ดูแล มีให้ใช้งานด้วย OPENAI_API_KEY=... GEMINI_API_KEY=... node --import tsx scripts/dev/realtime-talk-live-smoke.ts; ขา OpenAI ตรวจสอบทั้งบริดจ์ WebSocket ฝั่งแบ็กเอนด์และการแลกเปลี่ยน SDP ของ WebRTC บนเบราว์เซอร์โดยไม่บันทึกความลับ

ปลายทาง Azure OpenAI

ผู้ให้บริการ openai ที่รวมมาให้สามารถกำหนดเป้าหมายไปยังทรัพยากร Azure OpenAI สำหรับการสร้างภาพ ได้โดยการแทนที่ URL ฐาน บนเส้นทางการสร้างภาพ OpenClaw ตรวจจับชื่อโฮสต์ Azure บน models.providers.openai.baseUrl และสลับไปใช้ รูปแบบคำขอของ Azure โดยอัตโนมัติ
เสียง Realtime ใช้เส้นทางการกำหนดค่าแยกต่างหาก (plugins.entries.voice-call.config.realtime.providers.openai.azureEndpoint) และไม่ได้รับผลกระทบจาก models.providers.openai.baseUrl ดูแอคคอร์เดียน เสียง Realtime ใต้ เสียงและการพูด สำหรับการตั้งค่า Azure ของส่วนนี้
ใช้ Azure OpenAI เมื่อ:
  • คุณมีการสมัครใช้งาน Azure OpenAI, quota หรือข้อตกลงระดับองค์กรอยู่แล้ว
  • คุณต้องการการพำนักของข้อมูลตามภูมิภาคหรือการควบคุมการปฏิบัติตามข้อกำหนดที่ Azure มีให้
  • คุณต้องการให้ทราฟฟิกอยู่ภายใน Azure tenancy ที่มีอยู่

การกำหนดค่า

สำหรับการสร้างภาพผ่าน Azure ด้วยผู้ให้บริการ openai ที่รวมมาให้ ให้ชี้ models.providers.openai.baseUrl ไปยังทรัพยากร Azure ของคุณและตั้งค่า apiKey เป็น คีย์ Azure OpenAI (ไม่ใช่คีย์ OpenAI Platform):
{
  models: {
    providers: {
      openai: {
        baseUrl: "https://<your-resource>.openai.azure.com",
        apiKey: "<azure-openai-api-key>",
      },
    },
  },
}
OpenClaw จดจำส่วนต่อท้ายโฮสต์ Azure เหล่านี้สำหรับเส้นทางการสร้างภาพของ Azure:
  • *.openai.azure.com
  • *.services.ai.azure.com
  • *.cognitiveservices.azure.com
สำหรับคำขอสร้างภาพบนโฮสต์ Azure ที่จดจำได้ OpenClaw จะ:
  • ส่งส่วนหัว api-key แทน Authorization: Bearer
  • ใช้เส้นทางที่มีขอบเขตตามการปรับใช้ (/openai/deployments/{deployment}/...)
  • ต่อท้าย ?api-version=... ในแต่ละคำขอ
  • ใช้ timeout คำขอเริ่มต้น 600 วินาทีสำหรับการเรียกสร้างภาพของ Azure ค่า timeoutMs รายการต่อการเรียกยังคงแทนที่ค่าเริ่มต้นนี้
URL ฐานอื่น ๆ (OpenAI สาธารณะ, พร็อกซีที่เข้ากันได้กับ OpenAI) ยังคงใช้ รูปแบบคำขอสร้างภาพมาตรฐานของ OpenAI
การกำหนดเส้นทาง Azure สำหรับเส้นทางการสร้างภาพของผู้ให้บริการ openai ต้องใช้ OpenClaw 2026.4.22 หรือใหม่กว่า เวอร์ชันก่อนหน้าจะถือว่า openai.baseUrl แบบกำหนดเองใด ๆ เป็นเหมือนปลายทาง OpenAI สาธารณะ และจะล้มเหลวกับการปรับใช้ ภาพของ Azure

เวอร์ชัน API

ตั้งค่า AZURE_OPENAI_API_VERSION เพื่อปักหมุดเวอร์ชันตัวอย่าง Azure หรือเวอร์ชัน GA เฉพาะ สำหรับเส้นทางการสร้างภาพของ Azure:
export AZURE_OPENAI_API_VERSION="2024-12-01-preview"
ค่าเริ่มต้นคือ 2024-12-01-preview เมื่อไม่ได้ตั้งค่าตัวแปรนี้

ชื่อโมเดลคือชื่อ deployment

Azure OpenAI ผูกโมเดลกับ deployment สำหรับคำขอสร้างภาพของ Azure ที่ถูกส่งผ่าน provider openai ที่รวมมาให้ ฟิลด์ model ใน OpenClaw ต้องเป็น ชื่อ Azure deployment ที่คุณกำหนดค่าไว้ในพอร์ทัล Azure ไม่ใช่ id โมเดล OpenAI สาธารณะ หากคุณสร้าง deployment ชื่อ gpt-image-2-prod ที่ให้บริการ gpt-image-2:
/tool image_generate model=openai/gpt-image-2-prod prompt="A clean poster" size=1024x1024 count=1
กฎชื่อ deployment เดียวกันนี้ใช้กับการเรียกสร้างภาพที่ถูกส่งผ่าน provider openai ที่รวมมาให้ด้วย

ความพร้อมใช้งานตามภูมิภาค

ขณะนี้การสร้างภาพของ Azure พร้อมใช้งานเฉพาะในบางภูมิภาคเท่านั้น (เช่น eastus2, swedencentral, polandcentral, westus3, uaenorth) ตรวจสอบรายการภูมิภาคปัจจุบันของ Microsoft ก่อนสร้าง deployment และยืนยันว่าโมเดลที่ต้องการมีให้บริการในภูมิภาคของคุณ

ความแตกต่างของพารามิเตอร์

Azure OpenAI และ OpenAI สาธารณะไม่ได้ยอมรับพารามิเตอร์ภาพชุดเดียวกันเสมอไป Azure อาจปฏิเสธตัวเลือกที่ OpenAI สาธารณะอนุญาต (เช่น ค่า background บางค่าบน gpt-image-2) หรือเปิดให้ใช้เฉพาะกับเวอร์ชันโมเดล บางเวอร์ชันเท่านั้น ความแตกต่างเหล่านี้มาจาก Azure และโมเดลพื้นฐาน ไม่ใช่ OpenClaw หากคำขอ Azure ล้มเหลวด้วยข้อผิดพลาดการตรวจสอบความถูกต้อง ให้ตรวจสอบ ชุดพารามิเตอร์ที่ deployment และเวอร์ชัน API เฉพาะของคุณรองรับใน พอร์ทัล Azure
Azure OpenAI ใช้การส่งผ่านแบบเนทีฟและพฤติกรรมความเข้ากันได้ แต่ไม่ได้รับ ส่วนหัวการระบุแหล่งที่มาที่ซ่อนอยู่ของ OpenClaw — ดูแอคคอร์เดียน เส้นทางเนทีฟเทียบกับเส้นทางที่เข้ากันได้กับ OpenAI ใต้ การกำหนดค่าขั้นสูงสำหรับทราฟฟิกแชตหรือ Responses บน Azure (นอกเหนือจากการสร้างภาพ) ให้ใช้ โฟลว์ onboarding หรือ config provider Azure เฉพาะ — openai.baseUrl เพียงอย่างเดียว จะไม่รับรูปแบบ API/auth ของ Azure มี provider azure-openai-responses/* แยกต่างหาก โปรดดูแอคคอร์เดียน Compaction ฝั่งเซิร์ฟเวอร์ด้านล่าง

การกำหนดค่าขั้นสูง

OpenClaw ใช้ WebSocket ก่อน โดยมี SSE เป็นทางสำรอง ("auto") สำหรับ openai/*ในโหมด "auto" OpenClaw จะ:
  • ลอง WebSocket ซ้ำหนึ่งครั้งเมื่อเกิดความล้มเหลวตั้งแต่ต้น ก่อนถอยกลับไปใช้ SSE
  • หลังเกิดความล้มเหลว ทำเครื่องหมาย WebSocket ว่าเสื่อมคุณภาพประมาณ 60 วินาที และใช้ SSE ระหว่างช่วงพัก
  • แนบส่วนหัวตัวตน session และ turn ที่เสถียรสำหรับการลองใหม่และการเชื่อมต่อใหม่
  • ปรับตัวนับการใช้งาน (input_tokens / prompt_tokens) ให้เป็นรูปแบบเดียวกันในตัวแปรการส่งผ่านต่าง ๆ
ค่าพฤติกรรม
"auto" (ค่าเริ่มต้น)ใช้ WebSocket ก่อน และมี SSE เป็นทางสำรอง
"sse"บังคับใช้เฉพาะ SSE
"websocket"บังคับใช้เฉพาะ WebSocket
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": {
          params: { transport: "auto" },
        },
      },
    },
  },
}
เอกสาร OpenAI ที่เกี่ยวข้อง:
OpenClaw เปิดเผยสวิตช์โหมดเร็วแบบใช้ร่วมกันสำหรับ openai/*:
  • แชต/UI: /fast status|on|off
  • Config: agents.defaults.models["<provider>/<model>"].params.fastMode
เมื่อเปิดใช้งาน OpenClaw จะจับคู่โหมดเร็วกับการประมวลผลแบบมีลำดับความสำคัญของ OpenAI (service_tier = "priority") ค่า service_tier ที่มีอยู่จะถูกคงไว้ และโหมดเร็วจะไม่เขียน reasoning หรือ text.verbosity ใหม่
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { fastMode: true } },
      },
    },
  },
}
การ override ของ session มีผลเหนือกว่า config การล้าง override ของ session ใน UI Sessions จะคืน session กลับเป็นค่าเริ่มต้นที่กำหนดค่าไว้
API ของ OpenAI เปิดให้ใช้การประมวลผลแบบมีลำดับความสำคัญผ่าน service_tier ตั้งค่าแยกตามโมเดลใน OpenClaw:
{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.5": { params: { serviceTier: "priority" } },
      },
    },
  },
}
ค่าที่รองรับ: auto, default, flex, priority
serviceTier จะถูกส่งต่อไปยัง endpoint OpenAI แบบเนทีฟ (api.openai.com) และ endpoint Codex แบบเนทีฟ (chatgpt.com/backend-api) เท่านั้น หากคุณส่ง provider ใด provider หนึ่งผ่าน proxy OpenClaw จะปล่อย service_tier ไว้โดยไม่แก้ไข
สำหรับโมเดล OpenAI Responses โดยตรง (openai/* บน api.openai.com) ตัวครอบสตรีม Pi-harness ของ Plugin OpenAI จะเปิดใช้ Compaction ฝั่งเซิร์ฟเวอร์โดยอัตโนมัติ:
  • บังคับ store: true (เว้นแต่ความเข้ากันได้ของโมเดลตั้งค่า supportsStore: false)
  • แทรก context_management: [{ type: "compaction", compact_threshold: ... }]
  • ค่าเริ่มต้นของ compact_threshold: 70% ของ contextWindow (หรือ 80000 เมื่อไม่มีข้อมูล)
สิ่งนี้ใช้กับเส้นทาง Pi harness ในตัว และกับ hook ของ provider OpenAI ที่ใช้โดยการรันแบบฝังตัว harness ของเซิร์ฟเวอร์แอป Codex แบบเนทีฟจัดการบริบทของตนเองผ่าน Codex และถูกกำหนดค่าโดยเส้นทาง agent เริ่มต้นของ OpenAI หรือ policy runtime ของ provider/model
มีประโยชน์สำหรับ endpoint ที่เข้ากันได้ เช่น Azure OpenAI Responses:
{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.5": {
          params: { responsesServerCompaction: true },
        },
      },
    },
  },
}
responsesServerCompaction ควบคุมเฉพาะการแทรก context_management เท่านั้น โมเดล OpenAI Responses โดยตรงยังคงบังคับ store: true เว้นแต่ความเข้ากันได้จะตั้งค่า supportsStore: false
สำหรับการรันตระกูล GPT-5 บน openai/* OpenClaw สามารถใช้สัญญาการดำเนินการแบบฝังตัวที่เข้มงวดกว่าได้:
{
  agents: {
    defaults: {
      embeddedPi: { executionContract: "strict-agentic" },
    },
  },
}
ด้วย strict-agentic OpenClaw จะ:
  • ไม่ถือว่า turn ที่มีเฉพาะแผนเป็นความคืบหน้าที่สำเร็จอีกต่อไป เมื่อมีการดำเนินการ tool พร้อมใช้งาน
  • ลอง turn ซ้ำด้วยการชี้นำให้ลงมือทำทันที
  • เปิดใช้ update_plan โดยอัตโนมัติสำหรับงานที่มีนัยสำคัญ
  • แสดงสถานะถูกบล็อกอย่างชัดเจน หากโมเดลยังคงวางแผนโดยไม่ลงมือทำ
จำกัดเฉพาะการรันตระกูล GPT-5 ของ OpenAI และ Codex เท่านั้น provider อื่นและตระกูลโมเดลเก่ากว่าจะคงพฤติกรรมเริ่มต้นไว้
OpenClaw ปฏิบัติต่อ endpoint OpenAI, Codex และ Azure OpenAI โดยตรงต่างจาก proxy /v1 ทั่วไปที่เข้ากันได้กับ OpenAI:เส้นทางเนทีฟ (openai/*, Azure OpenAI):
  • คง reasoning: { effort: "none" } ไว้เฉพาะสำหรับโมเดลที่รองรับ effort none ของ OpenAI
  • ละเว้น reasoning ที่ปิดใช้งานสำหรับโมเดลหรือ proxy ที่ปฏิเสธ reasoning.effort: "none"
  • ตั้งค่าเริ่มต้นของ schema ของ tool เป็นโหมด strict
  • แนบส่วนหัวการระบุแหล่งที่มาที่ซ่อนอยู่เฉพาะบนโฮสต์เนทีฟที่ยืนยันแล้ว
  • คงการจัดรูปคำขอเฉพาะ OpenAI (service_tier, store, reasoning-compat, hint ของ prompt-cache)
เส้นทาง proxy/compatible:
  • ใช้พฤติกรรมความเข้ากันได้ที่ยืดหยุ่นกว่า
  • ตัด store ของ Completions ออกจาก payload openai-completions ที่ไม่ใช่เนทีฟ
  • ยอมรับ JSON pass-through ขั้นสูง params.extra_body/params.extraBody สำหรับ proxy Completions ที่เข้ากันได้กับ OpenAI
  • ยอมรับ params.chat_template_kwargs สำหรับ proxy Completions ที่เข้ากันได้กับ OpenAI เช่น vLLM
  • ไม่บังคับใช้ schema ของ tool แบบ strict หรือส่วนหัวเฉพาะเนทีฟ
Azure OpenAI ใช้การส่งผ่านแบบเนทีฟและพฤติกรรมความเข้ากันได้ แต่ไม่ได้รับส่วนหัวการระบุแหล่งที่มาที่ซ่อนอยู่

ที่เกี่ยวข้อง

การเลือกโมเดล

การเลือก provider, model ref และพฤติกรรม failover

การสร้างภาพ

พารามิเตอร์ tool ภาพที่ใช้ร่วมกันและการเลือก provider

การสร้างวิดีโอ

พารามิเตอร์ tool วิดีโอที่ใช้ร่วมกันและการเลือก provider

OAuth และ auth

รายละเอียด auth และกฎการนำข้อมูลรับรองกลับมาใช้