คำถามและคำตอบเกี่ยวกับโมเดลและโปรไฟล์การยืนยันตัวตน สำหรับการตั้งค่า เซสชัน Gateway ช่องทาง และ การแก้ปัญหา โปรดดู FAQ หลักDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
โมเดล: ค่าเริ่มต้น การเลือก alias และการสลับ
“โมเดลเริ่มต้น” คืออะไร?
“โมเดลเริ่มต้น” คืออะไร?
provider/model (ตัวอย่าง: openai/gpt-5.5 หรือ anthropic/claude-sonnet-4-6) หากคุณละเว้นผู้ให้บริการ OpenClaw จะลองใช้ alias ก่อน จากนั้นจึงลองจับคู่ผู้ให้บริการที่กำหนดค่าไว้แบบไม่ซ้ำสำหรับ id โมเดลนั้นแบบตรงตัว และหลังจากนั้นจึงย้อนกลับไปใช้ผู้ให้บริการเริ่มต้นที่กำหนดค่าไว้ในฐานะเส้นทางความเข้ากันได้ที่เลิกใช้แล้วเท่านั้น หากผู้ให้บริการนั้นไม่เปิดเผยโมเดลเริ่มต้นที่กำหนดค่าไว้อีกต่อไป OpenClaw จะย้อนกลับไปใช้ผู้ให้บริการ/โมเดลแรกที่กำหนดค่าไว้แทนที่จะแสดงค่าเริ่มต้นของผู้ให้บริการที่ถูกลบซึ่งล้าสมัยแล้ว คุณยังควรตั้งค่า provider/model อย่างชัดเจนคุณแนะนำให้ใช้โมเดลใด?
คุณแนะนำให้ใช้โมเดลใด?
ฉันจะสลับโมเดลโดยไม่ล้าง config ได้อย่างไร?
ฉันจะสลับโมเดลโดยไม่ล้าง config ได้อย่างไร?
/modelในแชท (รวดเร็ว ต่อเซสชัน)openclaw models set ...(อัปเดตเฉพาะ config โมเดล)openclaw configure --section model(โต้ตอบได้)- แก้ไข
agents.defaults.modelใน~/.openclaw/openclaw.json
config.apply กับอ็อบเจกต์บางส่วน เว้นแต่คุณตั้งใจจะแทนที่ config ทั้งหมด
สำหรับการแก้ไขผ่าน RPC ให้ตรวจสอบด้วย config.schema.lookup ก่อนและควรใช้ config.patch payload การ lookup จะให้ path ที่ normalize แล้ว เอกสาร/ข้อจำกัดของ schema แบบตื้น และสรุปลูกโดยตรง
สำหรับการอัปเดตบางส่วน
หากคุณเขียนทับ config ไปแล้ว ให้กู้คืนจากข้อมูลสำรองหรือรัน openclaw doctor อีกครั้งเพื่อซ่อมแซมเอกสาร: โมเดล, กำหนดค่า, Config, Doctorฉันสามารถใช้โมเดลที่โฮสต์เอง (llama.cpp, vLLM, Ollama) ได้ไหม?
ฉันสามารถใช้โมเดลที่โฮสต์เอง (llama.cpp, vLLM, Ollama) ได้ไหม?
- ติดตั้ง Ollama จาก
https://ollama.com/download - ดึงโมเดลภายในเครื่อง เช่น
ollama pull gemma4 - หากคุณต้องการโมเดลคลาวด์ด้วย ให้รัน
ollama signin - รัน
openclaw onboardและเลือกOllama - เลือก
LocalหรือCloud + Local
Cloud + Localให้ทั้งโมเดลคลาวด์และโมเดล Ollama ภายในเครื่องของคุณ- โมเดลคลาวด์ เช่น
kimi-k2.5:cloudไม่จำเป็นต้องดึงมาไว้ในเครื่อง - สำหรับการสลับด้วยตนเอง ให้ใช้
openclaw models listและopenclaw models set ollama/<model>
OpenClaw, Flawd และ Krill ใช้โมเดลใด?
OpenClaw, Flawd และ Krill ใช้โมเดลใด?
- การดีพลอยเหล่านี้อาจแตกต่างกันและอาจเปลี่ยนแปลงได้ตามเวลา ไม่มีคำแนะนำผู้ให้บริการแบบตายตัว
- ตรวจสอบการตั้งค่ารันไทม์ปัจจุบันในแต่ละ Gateway ด้วย
openclaw models status - สำหรับเอเจนต์ที่ไวต่อความปลอดภัย/เปิดใช้เครื่องมือ ให้ใช้โมเดลรุ่นล่าสุดที่ทรงพลังที่สุดซึ่งมีอยู่
ฉันจะสลับโมเดลแบบทันที (โดยไม่ต้องรีสตาร์ท) ได้อย่างไร?
ฉันจะสลับโมเดลแบบทันที (โดยไม่ต้องรีสตาร์ท) ได้อย่างไร?
/model เป็นข้อความเดี่ยว:agents.defaults.models ได้คุณสามารถแสดงรายการโมเดลที่ใช้ได้ด้วย /model, /model list หรือ /model status/model (และ /model list) แสดงตัวเลือกแบบกระชับพร้อมหมายเลข เลือกด้วยหมายเลข:/model status แสดงว่าเอเจนต์ใด active อยู่ ไฟล์ auth-profiles.json ใดกำลังถูกใช้ และโปรไฟล์การยืนยันตัวตนใดจะถูกลองถัดไป
นอกจากนี้ยังแสดง endpoint ของผู้ให้บริการที่กำหนดค่าไว้ (baseUrl) และโหมด API (api) เมื่อมีฉันจะยกเลิกการปักหมุดโปรไฟล์ที่ตั้งด้วย @profile ได้อย่างไร?รัน /model อีกครั้ง โดยไม่มี suffix @profile:/model (หรือส่ง /model <default provider/model>)
ใช้ /model status เพื่อยืนยันว่าโปรไฟล์การยืนยันตัวตนใด active อยู่หากผู้ให้บริการสองรายเปิดเผย id โมเดลเดียวกัน /model จะใช้รายใด?
หากผู้ให้บริการสองรายเปิดเผย id โมเดลเดียวกัน /model จะใช้รายใด?
/model provider/model จะเลือกเส้นทางผู้ให้บริการนั้นแบบตรงตัวสำหรับเซสชันตัวอย่างเช่น qianfan/deepseek-v4-flash และ deepseek/deepseek-v4-flash เป็น model ref คนละตัวกัน แม้ว่าทั้งคู่จะมี deepseek-v4-flash อยู่ก็ตาม OpenClaw ไม่ควรสลับจากผู้ให้บริการหนึ่งไปยังอีกรายแบบเงียบ ๆ เพียงเพราะ id โมเดลแบบเปล่าตรงกันref ของ /model ที่ผู้ใช้เลือกยังเข้มงวดสำหรับนโยบาย fallback ด้วย หากผู้ให้บริการ/โมเดลที่เลือกนั้นไม่พร้อมใช้งาน การตอบกลับจะล้มเหลวให้เห็นชัด แทนที่จะตอบจาก agents.defaults.model.fallbacks เชน fallback ที่กำหนดค่าไว้ยังคงใช้กับค่าเริ่มต้นที่กำหนดค่าไว้ primary ของงาน cron และสถานะ fallback ที่เลือกอัตโนมัติหากการรันที่เริ่มจาก override ที่ไม่ใช่เซสชันได้รับอนุญาตให้ใช้ fallback ได้ OpenClaw จะลองผู้ให้บริการ/โมเดลที่ร้องขอก่อน จากนั้นลอง fallback ที่กำหนดค่าไว้ และหลังจากนั้นจึงลอง primary ที่กำหนดค่าไว้ วิธีนี้ป้องกันไม่ให้ id โมเดลแบบเปล่าที่ซ้ำกันกระโดดกลับไปยังผู้ให้บริการเริ่มต้นโดยตรงดู โมเดล และ Model failoverฉันสามารถใช้ GPT 5.5 สำหรับงานประจำวันและ Codex 5.5 สำหรับการเขียนโค้ดได้ไหม?
ฉันสามารถใช้ GPT 5.5 สำหรับงานประจำวันและ Codex 5.5 สำหรับการเขียนโค้ดได้ไหม?
- เอเจนต์เขียนโค้ด Codex แบบเนทีฟ: ตั้ง
agents.defaults.model.primaryเป็นopenai/gpt-5.5ลงชื่อเข้าใช้ด้วยopenclaw models auth login --provider openai-codexเมื่อคุณต้องการการยืนยันตัวตนด้วยการสมัครสมาชิก ChatGPT/Codex - งาน Direct OpenAI API นอกลูปเอเจนต์: กำหนดค่า
OPENAI_API_KEYสำหรับรูปภาพ embeddings เสียง realtime และพื้นผิว OpenAI API อื่น ๆ ที่ไม่ใช่เอเจนต์ - การยืนยันตัวตนด้วย API key สำหรับเอเจนต์ OpenAI: ใช้
/model openai/gpt-5.5กับโปรไฟล์ API key ของopenai-codexแบบมีลำดับ - เอเจนต์ย่อย: กำหนดเส้นทางงานเขียนโค้ดไปยังเอเจนต์ที่เน้น Codex ซึ่งมีโมเดล
openai/gpt-5.5ของตัวเอง
ฉันจะกำหนดค่าโหมดเร็วสำหรับ GPT 5.5 ได้อย่างไร?
ฉันจะกำหนดค่าโหมดเร็วสำหรับ GPT 5.5 ได้อย่างไร?
- ต่อเซสชัน: ส่ง
/fast onขณะที่เซสชันใช้openai/gpt-5.5 - ค่าเริ่มต้นต่อโมเดล: ตั้ง
agents.defaults.models["openai/gpt-5.5"].params.fastModeเป็นtrue
service_tier = "priority" บนคำขอ Responses แบบเนทีฟที่รองรับ override /fast ของเซสชันจะมีผลเหนือค่าเริ่มต้นใน configดู การคิดและโหมดเร็ว และ โหมดเร็วของ OpenAIทำไมฉันจึงเห็น "Model ... is not allowed" แล้วไม่มีคำตอบ?
ทำไมฉันจึงเห็น "Model ... is not allowed" แล้วไม่มีคำตอบ?
agents.defaults.models ไว้ รายการนั้นจะกลายเป็น allowlist สำหรับ /model และ override ใด ๆ
ของเซสชัน การเลือกโมเดลที่ไม่อยู่ในรายการนั้นจะส่งคืน:agents.defaults.models, เพิ่ม wildcard ของผู้ให้บริการ เช่น "provider/*": {} สำหรับแค็ตตาล็อกผู้ให้บริการแบบไดนามิก ลบ allowlist หรือเลือกโมเดลจาก /model list
หากคำสั่งนั้นมี --runtime codex ด้วย ให้อัปเดต allowlist ก่อนแล้วลองคำสั่ง
/model provider/model --runtime codex เดิมอีกครั้งทำไมฉันจึงเห็น "Unknown model: minimax/MiniMax-M2.7"?
ทำไมฉันจึงเห็น "Unknown model: minimax/MiniMax-M2.7"?
-
อัปเกรดเป็น OpenClaw รุ่นปัจจุบัน (หรือรันจากซอร์ส
main) แล้วรีสตาร์ท Gateway -
ตรวจสอบว่า MiniMax ถูกกำหนดค่าแล้ว (wizard หรือ JSON) หรือมีการยืนยันตัวตนของ MiniMax
อยู่ใน env/โปรไฟล์การยืนยันตัวตน เพื่อให้สามารถ inject ผู้ให้บริการที่ตรงกันได้
(
MINIMAX_API_KEYสำหรับminimax,MINIMAX_OAUTH_TOKENหรือ OAuth ของ MiniMax ที่จัดเก็บไว้สำหรับminimax-portal) -
ใช้ id โมเดลแบบตรงตัว (คำนึงถึงตัวพิมพ์เล็ก/ใหญ่) สำหรับเส้นทางการยืนยันตัวตนของคุณ:
minimax/MiniMax-M2.7หรือminimax/MiniMax-M2.7-highspeedสำหรับการตั้งค่า API key หรือminimax-portal/MiniMax-M2.7/minimax-portal/MiniMax-M2.7-highspeedสำหรับการตั้งค่า OAuth -
รัน:
แล้วเลือกจากรายการ (หรือ
/model listในแชท)
ฉันสามารถใช้ MiniMax เป็นค่าเริ่มต้นและใช้ OpenAI สำหรับงานซับซ้อนได้ไหม?
ฉันสามารถใช้ MiniMax เป็นค่าเริ่มต้นและใช้ OpenAI สำหรับงานซับซ้อนได้ไหม?
/model หรือเอเจนต์แยกต่างหากตัวเลือก A: สลับต่อเซสชัน- ค่าเริ่มต้นของเอเจนต์ A: MiniMax
- ค่าเริ่มต้นของเอเจนต์ B: OpenAI
- กำหนดเส้นทางตามเอเจนต์หรือใช้
/agentเพื่อสลับ
opus / sonnet / gpt เป็น shortcut ในตัวหรือไม่?
opus / sonnet / gpt เป็น shortcut ในตัวหรือไม่?
agents.defaults.models):opus→anthropic/claude-opus-4-7sonnet→anthropic/claude-sonnet-4-6gpt→openai/gpt-5.4gpt-mini→openai/gpt-5.4-minigpt-nano→openai/gpt-5.4-nanogemini→google/gemini-3.1-pro-previewgemini-flash→google/gemini-3-flash-previewgemini-flash-lite→google/gemini-3.1-flash-lite-preview
ฉันจะกำหนด/แทนที่ชอร์ตคัตโมเดล (นามแฝง) ได้อย่างไร
ฉันจะกำหนด/แทนที่ชอร์ตคัตโมเดล (นามแฝง) ได้อย่างไร
agents.defaults.models.<modelId>.alias ตัวอย่าง:/model sonnet (หรือ /<alias> เมื่อรองรับ) จะถูก resolve เป็น ID โมเดลนั้นฉันจะเพิ่มโมเดลจากผู้ให้บริการอื่น เช่น OpenRouter หรือ Z.AI ได้อย่างไร
ฉันจะเพิ่มโมเดลจากผู้ให้บริการอื่น เช่น OpenRouter หรือ Z.AI ได้อย่างไร
No API key found for provider "zai")ไม่พบคีย์ API สำหรับผู้ให้บริการหลังจากเพิ่มเอเจนต์ใหม่โดยทั่วไปหมายความว่า เอเจนต์ใหม่ มี auth store ว่างเปล่า auth เป็นแบบแยกต่อเอเจนต์และ
จัดเก็บอยู่ใน:- รัน
openclaw agents add <id>และกำหนดค่า auth ระหว่างวิซาร์ด - หรือคัดลอกเฉพาะโปรไฟล์
api_key/tokenแบบสแตติกที่ย้ายข้ามได้จาก auth store ของเอเจนต์หลักไปยัง auth store ของเอเจนต์ใหม่ - สำหรับโปรไฟล์ OAuth ให้ลงชื่อเข้าใช้จากเอเจนต์ใหม่เมื่อเอเจนต์นั้นต้องใช้บัญชีของตัวเอง มิฉะนั้น OpenClaw สามารถอ่านผ่านไปยังเอเจนต์ค่าเริ่มต้น/หลักได้โดยไม่ต้องโคลน refresh token
agentDir ซ้ำข้ามเอเจนต์ เพราะจะทำให้ auth/session ชนกันการสำรองโมเดลเมื่อเกิดข้อผิดพลาดและ “โมเดลทั้งหมดล้มเหลว”
การสำรองเมื่อเกิดข้อผิดพลาดทำงานอย่างไร
การสำรองเมื่อเกิดข้อผิดพลาดทำงานอย่างไร
- การหมุนเวียนโปรไฟล์ auth ภายในผู้ให้บริการเดียวกัน
- การถอยกลับของโมเดล ไปยังโมเดลถัดไปใน
agents.defaults.model.fallbacks
429 แบบทั่วไป OpenClaw
ยังถือว่าข้อความอย่าง Too many concurrent requests,
ThrottlingException, concurrency limit reached,
workers_ai ... quota limit exceeded, resource exhausted และขีดจำกัด
ช่วงเวลาการใช้งานเป็นระยะ (weekly/monthly limit reached) เป็น rate limit
ที่ควรทำการสำรองเมื่อเกิดข้อผิดพลาดการตอบกลับบางรายการที่ดูเหมือนเกี่ยวกับการเรียกเก็บเงินไม่ใช่ 402 และการตอบกลับ HTTP 402
บางรายการก็ยังอยู่ในบักเก็ตชั่วคราวนั้นเช่นกัน หากผู้ให้บริการส่งคืน
ข้อความการเรียกเก็บเงินที่ชัดเจนบน 401 หรือ 403 OpenClaw ยังสามารถเก็บรายการนั้นไว้ใน
ช่องทางการเรียกเก็บเงินได้ แต่ตัวจับคู่ข้อความเฉพาะผู้ให้บริการจะยังคงจำกัดอยู่กับ
ผู้ให้บริการที่เป็นเจ้าของตัวจับคู่นั้น (เช่น OpenRouter Key limit exceeded) หากข้อความ 402
ดูเหมือนเป็นขีดจำกัดหน้าต่างการใช้งานที่ลองใหม่ได้ หรือ
ขีดจำกัดค่าใช้จ่ายระดับองค์กร/เวิร์กสเปซ (daily limit reached, resets tomorrow,
organization spending limit exceeded) แทน OpenClaw จะถือว่าเป็น
rate_limit ไม่ใช่การปิดใช้งานการเรียกเก็บเงินระยะยาวข้อผิดพลาด context-overflow ต่างออกไป: ลายเซ็นเช่น
request_too_large, input exceeds the maximum number of tokens,
input token count exceeds the maximum number of input tokens,
input is too long for the model หรือ ollama error: context length exceeded จะยังอยู่บนเส้นทาง Compaction/ลองใหม่ แทนที่จะเลื่อนไปยังการ
ถอยกลับของโมเดลข้อความข้อผิดพลาดเซิร์ฟเวอร์ทั่วไปถูกตั้งใจให้แคบกว่า “อะไรก็ตามที่มี
unknown/error อยู่ในนั้น” OpenClaw ถือว่า transient shape ที่จำกัดตามผู้ให้บริการ
เช่น Anthropic แบบเปล่า An unknown error occurred, OpenRouter แบบเปล่า
Provider returned error, ข้อผิดพลาด stop-reason เช่น Unhandled stop reason: error, payload JSON api_error พร้อมข้อความเซิร์ฟเวอร์ชั่วคราว
(internal server error, unknown error, 520, upstream error, backend error) และข้อผิดพลาด provider-busy เช่น ModelNotReadyException เป็น
สัญญาณหมดเวลา/โอเวอร์โหลดที่ควรสำรองเมื่อเกิดข้อผิดพลาด เมื่อ context ของผู้ให้บริการ
ตรงกัน
ข้อความถอยกลับภายในทั่วไป เช่น LLM request failed with an unknown error. จะยังคงอนุรักษ์นิยมและไม่ทริกเกอร์การถอยกลับของโมเดลด้วยตัวเองข้อความ "ไม่พบข้อมูลประจำตัวสำหรับโปรไฟล์ anthropic:default" หมายความว่าอย่างไร
ข้อความ "ไม่พบข้อมูลประจำตัวสำหรับโปรไฟล์ anthropic:default" หมายความว่าอย่างไร
anthropic:default แต่ไม่พบข้อมูลประจำตัวของโปรไฟล์นั้นใน auth store ที่คาดไว้เช็กลิสต์การแก้ไข:- ยืนยันว่าโปรไฟล์ auth อยู่ที่ใด (พาธใหม่เทียบกับพาธเดิม)
- ปัจจุบัน:
~/.openclaw/agents/<agentId>/agent/auth-profiles.json - เดิม:
~/.openclaw/agent/*(ย้ายโดยopenclaw doctor)
- ปัจจุบัน:
- ยืนยันว่า env var ของคุณถูกโหลดโดย Gateway
- หากคุณตั้ง
ANTHROPIC_API_KEYใน shell ของคุณ แต่รัน Gateway ผ่าน systemd/launchd อาจไม่ได้สืบทอดค่านั้น ให้ใส่ไว้ใน~/.openclaw/.envหรือเปิดใช้งานenv.shellEnv
- หากคุณตั้ง
- ตรวจสอบให้แน่ใจว่าคุณกำลังแก้ไขเอเจนต์ที่ถูกต้อง
- การตั้งค่าแบบหลายเอเจนต์หมายความว่าอาจมีไฟล์
auth-profiles.jsonหลายไฟล์
- การตั้งค่าแบบหลายเอเจนต์หมายความว่าอาจมีไฟล์
- ตรวจสอบสถานะโมเดล/auth แบบคร่าว ๆ
- ใช้
openclaw models statusเพื่อดูโมเดลที่กำหนดค่าไว้และดูว่าผู้ให้บริการผ่านการรับรองตัวตนแล้วหรือไม่
- ใช้
-
ใช้ Claude CLI
- รัน
openclaw models auth login --provider anthropic --method cli --set-defaultบนโฮสต์ Gateway
- รัน
-
หากคุณต้องการใช้คีย์ API แทน
-
ใส่
ANTHROPIC_API_KEYใน~/.openclaw/.envบน โฮสต์ Gateway -
ล้างลำดับที่ตรึงไว้ซึ่งบังคับใช้โปรไฟล์ที่หายไป:
-
ใส่
-
ยืนยันว่าคุณกำลังรันคำสั่งบนโฮสต์ Gateway
- ในโหมดระยะไกล โปรไฟล์ auth จะอยู่บนเครื่อง Gateway ไม่ใช่แล็ปท็อปของคุณ
ทำไมจึงลอง Google Gemini แล้วล้มเหลวด้วย
ทำไมจึงลอง Google Gemini แล้วล้มเหลวด้วย
No API key found for provider "google"วิธีแก้: ให้ข้อมูล auth ของ Google หรือเอา/หลีกเลี่ยงโมเดล Google ใน agents.defaults.model.fallbacks / นามแฝง เพื่อไม่ให้การถอยกลับ route ไปที่นั่นคำขอ LLM ถูกปฏิเสธ: ต้องมี thinking signature (Google Antigravity)สาเหตุ: ประวัติเซสชันมี thinking blocks ที่ไม่มีลายเซ็น (มักมาจาก
สตรีมที่ถูกยกเลิก/ไม่สมบูรณ์) Google Antigravity ต้องใช้ลายเซ็นสำหรับ thinking blocksวิธีแก้: ตอนนี้ OpenClaw จะตัด thinking blocks ที่ไม่มีลายเซ็นออกสำหรับ Google Antigravity Claude หากยังปรากฏอยู่ ให้เริ่ม เซสชันใหม่ หรือตั้ง /thinking off สำหรับเอเจนต์นั้นโปรไฟล์ auth: คืออะไรและจัดการอย่างไร
ที่เกี่ยวข้อง: /concepts/oauth (โฟลว์ OAuth, การจัดเก็บโทเค็น, รูปแบบหลายบัญชี)โปรไฟล์ auth คืออะไร
โปรไฟล์ auth คืออะไร
openclaw models auth list (เลือกใช้ --provider <id> หรือ --json ได้) ดูรายละเอียดใน Models CLIID โปรไฟล์ทั่วไปมีอะไรบ้าง
ID โปรไฟล์ทั่วไปมีอะไรบ้าง
anthropic:default(พบได้บ่อยเมื่อไม่มีอัตลักษณ์อีเมล)anthropic:<email>สำหรับอัตลักษณ์ OAuth- ID แบบกำหนดเองที่คุณเลือก (เช่น
anthropic:work)
ฉันควบคุมได้ไหมว่าโปรไฟล์ auth ใดจะถูกลองก่อน
ฉันควบคุมได้ไหมว่าโปรไฟล์ auth ใดจะถูกลองก่อน
auth.order.<provider>) สิ่งนี้ ไม่ จัดเก็บข้อมูลลับ แต่แมป ID ไปยังผู้ให้บริการ/โหมด และตั้งลำดับการหมุนเวียนOpenClaw อาจข้ามโปรไฟล์ชั่วคราวหากอยู่ใน คูลดาวน์ ระยะสั้น (rate limits/timeouts/auth failures) หรืออยู่ในสถานะ ปิดใช้งาน ที่ยาวกว่า (การเรียกเก็บเงิน/เครดิตไม่เพียงพอ) หากต้องการตรวจสอบ ให้รัน openclaw models status --json และตรวจสอบ auth.unusableProfiles การปรับแต่ง: auth.cooldowns.billingBackoffHours*คูลดาวน์ rate-limit สามารถจำกัดตามโมเดลได้ โปรไฟล์ที่กำลังคูลดาวน์
สำหรับโมเดลหนึ่งอาจยังใช้งานได้กับโมเดลพี่น้องบนผู้ให้บริการเดียวกัน
ขณะที่ช่วงเวลาการเรียกเก็บเงิน/ปิดใช้งานยังคงบล็อกทั้งโปรไฟล์คุณยังสามารถตั้งการแทนที่ลำดับ ต่อเอเจนต์ (จัดเก็บใน auth-state.json ของเอเจนต์นั้น) ผ่าน CLI ได้:excluded_by_auth_order สำหรับโปรไฟล์นั้นแทนการลองแบบเงียบ ๆOAuth เทียบกับคีย์ API - ต่างกันอย่างไร
OAuth เทียบกับคีย์ API - ต่างกันอย่างไร
- OAuth มักใช้ประโยชน์จากการเข้าถึงแบบสมัครสมาชิก (เมื่อใช้ได้)
- คีย์ API ใช้การเรียกเก็บเงินแบบจ่ายตามโทเค็น