Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

คู่มือเริ่มต้นอย่างรวดเร็วและถาม-ตอบสำหรับการใช้งานครั้งแรก สำหรับการใช้งานประจำวัน โมเดล การยืนยันตัวตน เซสชัน และการแก้ไขปัญหา โปรดดู FAQ หลัก

การเริ่มต้นอย่างรวดเร็วและการตั้งค่าการใช้งานครั้งแรก

ใช้เอเจนต์ AI แบบโลคัลที่สามารถ เห็นเครื่องของคุณ ได้ วิธีนี้มีประสิทธิภาพกว่าการถาม ใน Discord มาก เพราะกรณี “ฉันติดขัด” ส่วนใหญ่เป็น ปัญหาคอนฟิกหรือสภาพแวดล้อมในเครื่อง ซึ่งผู้ช่วยระยะไกลไม่สามารถตรวจสอบได้เครื่องมือเหล่านี้สามารถอ่าน repo, รันคำสั่ง, ตรวจสอบล็อก และช่วยแก้การตั้งค่าระดับเครื่องของคุณ (PATH, services, permissions, auth files) ได้ มอบ source checkout ทั้งหมด ให้เครื่องมือเหล่านี้ผ่าน การติดตั้งแบบ hackable (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
คำสั่งนี้จะติดตั้ง OpenClaw จาก git checkout ดังนั้นเอเจนต์จึงอ่านโค้ด + เอกสาร และ วิเคราะห์เวอร์ชันที่คุณกำลังรันอยู่ได้อย่างตรงจุด คุณสามารถสลับกลับไปใช้ stable ภายหลังได้เสมอ โดยรันตัวติดตั้งอีกครั้งโดยไม่มี --install-method gitเคล็ดลับ: ขอให้เอเจนต์ วางแผนและกำกับดูแล การแก้ไข (ทีละขั้นตอน) แล้วจึงรันเฉพาะ คำสั่งที่จำเป็นเท่านั้น วิธีนี้ทำให้การเปลี่ยนแปลงเล็กและตรวจสอบย้อนหลังได้ง่ายขึ้นหากคุณพบข้อบกพร่องจริงหรือวิธีแก้ไข โปรดเปิด GitHub issue หรือส่ง PR: https://github.com/openclaw/openclaw/issues https://github.com/openclaw/openclaw/pullsเริ่มด้วยคำสั่งเหล่านี้ (แชร์เอาต์พุตเมื่อขอความช่วยเหลือ):
openclaw status
openclaw models status
openclaw doctor
สิ่งที่คำสั่งเหล่านี้ทำ:
  • openclaw status: ภาพรวมอย่างรวดเร็วของสุขภาพ gateway/agent + คอนฟิกพื้นฐาน
  • openclaw models status: ตรวจสอบการยืนยันตัวตนของผู้ให้บริการ + ความพร้อมใช้งานของโมเดล
  • openclaw doctor: ตรวจสอบความถูกต้องและซ่อมแซมปัญหาคอนฟิก/สถานะที่พบบ่อย
การตรวจสอบ CLI อื่นที่มีประโยชน์: openclaw status --all, openclaw logs --follow, openclaw gateway status, openclaw health --verboseลูปดีบักอย่างรวดเร็ว: 60 วินาทีแรกถ้ามีบางอย่างเสีย เอกสารการติดตั้ง: ติดตั้ง, แฟล็กตัวติดตั้ง, การอัปเดต
เหตุผลการข้าม heartbeat ที่พบบ่อย:
  • quiet-hours: อยู่นอกช่วงเวลา active-hours ที่กำหนดค่าไว้
  • empty-heartbeat-file: มี HEARTBEAT.md อยู่ แต่มีเพียงโครงร่างว่าง/มีเฉพาะส่วนหัว
  • no-tasks-due: โหมดงานของ HEARTBEAT.md เปิดอยู่ แต่ยังไม่มีช่วงเวลาของงานใดถึงกำหนด
  • alerts-disabled: การมองเห็น heartbeat ทั้งหมดถูกปิดใช้งาน (showOk, showAlerts, และ useIndicator ปิดอยู่ทั้งหมด)
ในโหมดงาน timestamp ครบกำหนดจะถูกเลื่อนต่อเมื่อการรัน heartbeat จริง เสร็จสมบูรณ์เท่านั้น การรันที่ถูกข้ามจะไม่ทำเครื่องหมายงานว่าเสร็จแล้วเอกสาร: Heartbeat, ระบบอัตโนมัติ
repo แนะนำให้รันจากซอร์สและใช้ onboarding:
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
ตัวช่วยตั้งค่าสามารถสร้าง UI assets โดยอัตโนมัติได้ด้วย หลัง onboarding โดยทั่วไปคุณจะรัน Gateway บนพอร์ต 18789จากซอร์ส (ผู้ร่วมพัฒนา/dev):
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
pnpm ui:build
openclaw onboard
หากคุณยังไม่มีการติดตั้งแบบ global ให้รันผ่าน pnpm openclaw onboard
ตัวช่วยตั้งค่าจะเปิดเบราว์เซอร์ของคุณด้วย URL แดชบอร์ดแบบสะอาด (ไม่มีโทเค็น) ทันทีหลัง onboarding และพิมพ์ลิงก์ไว้ในสรุปด้วย เปิดแท็บนั้นค้างไว้ หากแท็บไม่ได้เปิดขึ้นมา ให้คัดลอก/วาง URL ที่พิมพ์ไว้บนเครื่องเดียวกัน
Localhost (เครื่องเดียวกัน):
  • เปิด http://127.0.0.1:18789/
  • หากระบบถามหา shared-secret auth ให้วางโทเค็นหรือรหัสผ่านที่กำหนดค่าไว้ใน Control UI settings
  • แหล่งที่มาของโทเค็น: gateway.auth.token (หรือ OPENCLAW_GATEWAY_TOKEN)
  • แหล่งที่มาของรหัสผ่าน: gateway.auth.password (หรือ OPENCLAW_GATEWAY_PASSWORD)
  • หากยังไม่ได้กำหนดค่า shared secret ให้สร้างโทเค็นด้วย openclaw doctor --generate-gateway-token
ไม่ใช่บน localhost:
  • Tailscale Serve (แนะนำ): คง bind loopback ไว้, รัน openclaw gateway --tailscale serve, เปิด https://<magicdns>/ หาก gateway.auth.allowTailscale เป็น true identity headers จะผ่านการยืนยันตัวตนของ Control UI/WebSocket (ไม่ต้องวาง shared secret, ถือว่าโฮสต์ Gateway น่าเชื่อถือ); HTTP APIs ยังต้องใช้ shared-secret auth เว้นแต่คุณตั้งใจใช้ private-ingress none หรือ trusted-proxy HTTP auth ความพยายาม Serve auth ที่ผิดพลาดพร้อมกันจากไคลเอนต์เดียวกันจะถูกจัดลำดับก่อนที่ failed-auth limiter จะบันทึก ดังนั้นการลองซ้ำผิดครั้งที่สองอาจแสดง retry later ได้แล้ว
  • Tailnet bind: รัน openclaw gateway --bind tailnet --token "<token>" (หรือกำหนดค่า password auth), เปิด http://<tailscale-ip>:18789/ แล้ววาง shared secret ที่ตรงกันในการตั้งค่าแดชบอร์ด
  • Reverse proxy ที่รับรู้ตัวตน: วาง Gateway ไว้หลังพร็อกซีที่เชื่อถือได้, กำหนดค่า gateway.auth.mode: "trusted-proxy" แล้วเปิด URL ของพร็อกซี พร็อกซี loopback บนโฮสต์เดียวกันต้องตั้งค่า gateway.auth.trustedProxy.allowLoopback = true อย่างชัดเจน
  • SSH tunnel: ssh -N -L 18789:127.0.0.1:18789 user@host แล้วเปิด http://127.0.0.1:18789/ shared-secret auth ยังคงมีผลผ่าน tunnel ให้วางโทเค็นหรือรหัสผ่านที่กำหนดค่าไว้หากมีการถาม
ดู แดชบอร์ด และ พื้นผิวเว็บ สำหรับโหมด bind และรายละเอียดการยืนยันตัวตน
ทั้งสองรายการควบคุมคนละชั้น:
  • approvals.exec: ส่งต่อพรอมป์การอนุมัติไปยังปลายทางแชต
  • channels.<channel>.execApprovals: ทำให้ช่องทางนั้นทำหน้าที่เป็นไคลเอนต์อนุมัติแบบ native สำหรับการอนุมัติ exec
นโยบาย exec ของโฮสต์ยังคงเป็นด่านอนุมัติจริง คอนฟิกแชตควบคุมเพียงว่าพรอมป์ การอนุมัติจะปรากฏที่ใดและผู้คนสามารถตอบกลับอย่างไรในการตั้งค่าส่วนใหญ่ คุณ ไม่ จำเป็นต้องใช้ทั้งสองอย่าง:
  • หากแชตรองรับคำสั่งและการตอบกลับอยู่แล้ว /approve ในแชตเดียวกันจะทำงานผ่านเส้นทางร่วม
  • หากช่องทาง native ที่รองรับสามารถอนุมานผู้อนุมัติได้อย่างปลอดภัย ตอนนี้ OpenClaw จะเปิดใช้การอนุมัติ native แบบ DM-first โดยอัตโนมัติเมื่อ channels.<channel>.execApprovals.enabled ไม่ได้ตั้งค่าไว้หรือเป็น "auto"
  • เมื่อมีการ์ด/ปุ่มอนุมัติ native UI แบบ native นั้นคือเส้นทางหลัก; เอเจนต์ควรใส่คำสั่ง /approve แบบ manual เฉพาะเมื่อผลลัพธ์ของเครื่องมือระบุว่า chat approvals ไม่พร้อมใช้งาน หรือ manual approval เป็นเส้นทางเดียว
  • ใช้ approvals.exec เฉพาะเมื่อพรอมป์ต้องถูกส่งต่อไปยังแชตอื่นหรือห้องปฏิบัติการอย่างชัดเจนด้วย
  • ใช้ channels.<channel>.execApprovals.target: "channel" หรือ "both" เฉพาะเมื่อคุณต้องการให้พรอมป์การอนุมัติถูกโพสต์กลับไปยังห้อง/หัวข้อต้นทางอย่างชัดเจน
  • การอนุมัติ Plugin แยกออกไปอีกชั้น: ใช้ /approve ในแชตเดียวกันเป็นค่าเริ่มต้น, มีการส่งต่อ approvals.plugin เป็นทางเลือก และมีเพียงบางช่องทาง native ที่ยังคงมีการจัดการ plugin-approval-native เพิ่มเติม
สรุปสั้น ๆ: forwarding ใช้สำหรับการกำหนดเส้นทาง ส่วนคอนฟิก native client ใช้สำหรับ UX เฉพาะช่องทางที่สมบูรณ์ขึ้น ดู Exec Approvals
ต้องใช้ Node >= 22 แนะนำให้ใช้ pnpm ไม่แนะนำให้ใช้ Bun สำหรับ Gateway
ได้ Gateway มีน้ำหนักเบา - เอกสารระบุว่า RAM 512MB-1GB, 1 core, และพื้นที่ดิสก์ประมาณ 500MB เพียงพอสำหรับการใช้งานส่วนบุคคล และระบุว่า Raspberry Pi 4 สามารถรันได้หากคุณต้องการพื้นที่เผื่อเพิ่มเติม (ล็อก, สื่อ, บริการอื่น ๆ), แนะนำ 2GB แต่ไม่ใช่ ค่าขั้นต่ำแบบบังคับเคล็ดลับ: Pi/VPS ขนาดเล็กสามารถโฮสต์ Gateway ได้ และคุณสามารถจับคู่ nodes บนแล็ปท็อป/โทรศัพท์ของคุณสำหรับ หน้าจอ/กล้อง/canvas แบบโลคัล หรือการรันคำสั่ง ดู Nodes
สรุปสั้น ๆ: ใช้งานได้ แต่คาดว่าจะมีส่วนที่ยังไม่ราบรื่น
  • ใช้ระบบปฏิบัติการแบบ 64-bit และคง Node >= 22
  • เลือกใช้ การติดตั้งแบบ hackable (git) เพื่อให้คุณดูล็อกและอัปเดตได้เร็ว
  • เริ่มโดยไม่เปิด channels/skills แล้วค่อยเพิ่มทีละรายการ
  • หากเจอปัญหา binary แปลก ๆ โดยปกติจะเป็นปัญหา ความเข้ากันได้กับ ARM
เอกสาร: Linux, ติดตั้ง
หน้าจอนั้นขึ้นอยู่กับว่า Gateway เข้าถึงได้และยืนยันตัวตนแล้วหรือไม่ TUI ยังส่ง “Wake up, my friend!” โดยอัตโนมัติเมื่อ hatch ครั้งแรกด้วย หากคุณเห็นบรรทัดนั้นพร้อม ไม่มีการตอบกลับ และ token ยังคงอยู่ที่ 0 แปลว่าเอเจนต์ไม่เคยรัน
  1. รีสตาร์ต Gateway:
openclaw gateway restart
  1. ตรวจสอบสถานะ + การยืนยันตัวตน:
openclaw status
openclaw models status
openclaw logs --follow
  1. หากยังค้างอยู่ ให้รัน:
openclaw doctor
หาก Gateway อยู่ระยะไกล ให้ตรวจสอบว่า tunnel/การเชื่อมต่อ Tailscale เปิดอยู่ และ UI ชี้ไปยัง Gateway ที่ถูกต้อง ดู การเข้าถึงระยะไกล
ได้ คัดลอก state directory และ workspace แล้วรัน Doctor หนึ่งครั้ง วิธีนี้ จะรักษาบอทของคุณให้ “เหมือนเดิมทุกประการ” (memory, session history, auth, และ channel state) ตราบใดที่คุณคัดลอก ทั้งสอง ตำแหน่ง:
  1. ติดตั้ง OpenClaw บนเครื่องใหม่
  2. คัดลอก $OPENCLAW_STATE_DIR (ค่าเริ่มต้น: ~/.openclaw) จากเครื่องเก่า
  3. คัดลอก workspace ของคุณ (ค่าเริ่มต้น: ~/.openclaw/workspace)
  4. รัน openclaw doctor และรีสตาร์ตบริการ Gateway
วิธีนี้จะเก็บรักษา config, auth profiles, WhatsApp creds, sessions, และ memory หากคุณอยู่ใน remote mode โปรดจำว่าโฮสต์ gateway เป็นเจ้าของ session store และ workspaceสำคัญ: หากคุณเพียง commit/push workspace ของคุณไปยัง GitHub คุณกำลังสำรองข้อมูล memory + bootstrap files แต่ ไม่ใช่ session history หรือ auth สิ่งเหล่านี้อยู่ ภายใต้ ~/.openclaw/ (เช่น ~/.openclaw/agents/<agentId>/sessions/)ที่เกี่ยวข้อง: การย้ายข้อมูล, สิ่งต่าง ๆ อยู่ที่ไหนบนดิสก์, Agent workspace, Doctor, Remote mode
ตรวจสอบ changelog บน GitHub: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdรายการใหม่ที่สุดอยู่ด้านบน หากส่วนบนสุดถูกทำเครื่องหมายว่า Unreleased ส่วนถัดไปที่มีวันที่ คือเวอร์ชันล่าสุดที่เผยแพร่แล้ว รายการถูกจัดกลุ่มตาม Highlights, Changes, และ Fixes (รวมถึงส่วน docs/other เมื่อจำเป็น)
การเชื่อมต่อ Comcast/Xfinity บางรายการบล็อก docs.openclaw.ai อย่างไม่ถูกต้องผ่าน Xfinity Advanced Security ให้ปิดใช้งานหรือเพิ่ม docs.openclaw.ai ลง allowlist แล้วลองใหม่ โปรดช่วยเราเลิกบล็อกโดยรายงานที่นี่: https://spa.xfinity.com/check_url_statusหากคุณยังเข้าถึงไซต์ไม่ได้ เอกสารถูก mirror ไว้บน GitHub: https://github.com/openclaw/openclaw/tree/main/docs
Stable และ beta เป็น npm dist-tags ไม่ใช่สายโค้ดที่แยกกัน:
  • latest = stable
  • beta =บิลด์ระยะแรกสำหรับการทดสอบ
โดยปกติ รีลีส stable จะเข้าสู่ beta ก่อน จากนั้นขั้นตอน โปรโมตอย่างชัดเจนจะย้ายเวอร์ชันเดียวกันนั้นไปที่ latest ผู้ดูแลยังสามารถ เผยแพร่ตรงไปยัง latest ได้เมื่อจำเป็น นี่คือเหตุผลที่ beta และ stable อาจ ชี้ไปที่ เวอร์ชันเดียวกัน หลังการโปรโมตดูสิ่งที่เปลี่ยนแปลง: https://github.com/openclaw/openclaw/blob/main/CHANGELOG.mdสำหรับคำสั่งติดตั้งแบบบรรทัดเดียวและความแตกต่างระหว่าง beta กับ dev ให้ดู Accordion ด้านล่าง
Beta คือ npm dist-tag beta (อาจตรงกับ latest หลังการโปรโมต) Dev คือหัวที่เคลื่อนไหวของ main (git); เมื่อเผยแพร่ จะใช้ npm dist-tag devคำสั่งบรรทัดเดียว (macOS/Linux):
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --beta
curl -fsSL --proto '=https' --tlsv1.2 https://openclaw.ai/install.sh | bash -s -- --install-method git
ตัวติดตั้ง Windows (PowerShell): https://openclaw.ai/install.ps1รายละเอียดเพิ่มเติม: ช่องทางการพัฒนา และ แฟล็กตัวติดตั้ง
มีสองตัวเลือก:
  1. ช่องทาง Dev (git checkout):
openclaw update --channel dev
คำสั่งนี้จะสลับไปยังสาขา main และอัปเดตจากซอร์ส
  1. การติดตั้งที่แก้ไขได้ (จากไซต์ตัวติดตั้ง):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
วิธีนี้ให้ repo ท้องถิ่นที่คุณแก้ไขได้ แล้วอัปเดตผ่าน gitหากคุณต้องการ clone แบบสะอาดด้วยตนเอง ให้ใช้:
git clone https://github.com/openclaw/openclaw.git
cd openclaw
pnpm install
pnpm build
เอกสาร: อัปเดต, ช่องทางการพัฒนา, ติดตั้ง
แนวทางคร่าว ๆ:
  • ติดตั้ง: 2-5 นาที
  • Onboarding: 5-15 นาที ขึ้นอยู่กับจำนวนช่องทาง/โมเดลที่คุณกำหนดค่า
หากค้าง ให้ใช้ ตัวติดตั้งค้าง และลูปดีบักแบบเร็วใน ฉันติดขัด
เรียกใช้ตัวติดตั้งอีกครั้งด้วย เอาต์พุตแบบละเอียด:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --verbose
ติดตั้ง Beta พร้อมเอาต์พุตแบบละเอียด:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --beta --verbose
สำหรับการติดตั้งที่แก้ไขได้ (git):
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git --verbose
เทียบเท่าบน Windows (PowerShell):
# install.ps1 has no dedicated -Verbose flag yet.
Set-PSDebug -Trace 1
& ([scriptblock]::Create((iwr -useb https://openclaw.ai/install.ps1))) -NoOnboard
Set-PSDebug -Trace 0
ตัวเลือกเพิ่มเติม: แฟล็กตัวติดตั้ง
ปัญหาทั่วไปสองอย่างบน Windows:1) ข้อผิดพลาด npm spawn git / ไม่พบ git
  • ติดตั้ง Git for Windows และตรวจสอบให้แน่ใจว่า git อยู่ใน PATH ของคุณ
  • ปิดแล้วเปิด PowerShell ใหม่ จากนั้นเรียกใช้ตัวติดตั้งอีกครั้ง
2) หลังติดตั้งแล้วไม่รู้จัก openclaw
  • โฟลเดอร์ npm global bin ของคุณไม่ได้อยู่ใน PATH
  • ตรวจสอบพาธ:
    npm config get prefix
    
  • เพิ่มไดเรกทอรีนั้นไปยัง user PATH ของคุณ (บน Windows ไม่ต้องมีส่วนต่อท้าย \bin; ในระบบส่วนใหญ่คือ %AppData%\npm)
  • ปิดแล้วเปิด PowerShell ใหม่หลังอัปเดต PATH
หากต้องการการตั้งค่า Windows ที่ราบรื่นที่สุด ให้ใช้ WSL2 แทน Windows แบบ native เอกสาร: Windows
โดยปกตินี่คือการไม่ตรงกันของ console code page บนเชลล์ Windows แบบ nativeอาการ:
  • เอาต์พุต system.run/exec แสดงภาษาจีนเป็น mojibake
  • คำสั่งเดียวกันดูปกติในโปรไฟล์เทอร์มินัลอื่น
วิธีเลี่ยงแบบเร็วใน PowerShell:
chcp 65001
[Console]::InputEncoding = [System.Text.UTF8Encoding]::new($false)
[Console]::OutputEncoding = [System.Text.UTF8Encoding]::new($false)
$OutputEncoding = [System.Text.UTF8Encoding]::new($false)
จากนั้นรีสตาร์ต Gateway แล้วลองคำสั่งอีกครั้ง:
openclaw gateway restart
หากคุณยังทำซ้ำปัญหานี้ได้บน OpenClaw ล่าสุด ให้ติดตาม/รายงานใน:
ใช้ การติดตั้งที่แก้ไขได้ (git) เพื่อให้คุณมีซอร์สและเอกสารทั้งหมดในเครื่อง จากนั้นถาม บอทของคุณ (หรือ Claude/Codex) จากโฟลเดอร์นั้น เพื่อให้มันอ่าน repo และตอบได้อย่างแม่นยำ
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
รายละเอียดเพิ่มเติม: ติดตั้ง และ แฟล็กตัวติดตั้ง
คำตอบสั้น ๆ: ทำตามคู่มือ Linux แล้วเรียกใช้ onboarding
VPS Linux ใด ๆ ก็ใช้ได้ ติดตั้งบนเซิร์ฟเวอร์ แล้วใช้ SSH/Tailscale เพื่อเข้าถึง Gatewayคู่มือ: exe.dev, Hetzner, Fly.io การเข้าถึงระยะไกล: Gateway ระยะไกล
เรามี ฮับโฮสติ้ง พร้อมผู้ให้บริการทั่วไป เลือกหนึ่งรายการและทำตามคู่มือ:วิธีทำงานบน cloud: Gateway ทำงานบนเซิร์ฟเวอร์ และคุณเข้าถึงได้ จากแล็ปท็อป/โทรศัพท์ผ่าน Control UI (หรือ Tailscale/SSH) สถานะ + workspace ของคุณ อยู่บนเซิร์ฟเวอร์ ดังนั้นให้ถือว่าโฮสต์เป็นแหล่งข้อมูลจริงและสำรองข้อมูลไว้คุณสามารถจับคู่ nodes (Mac/iOS/Android/headless) กับ Gateway บน cloud นั้นเพื่อเข้าถึง หน้าจอ/กล้อง/canvas ในเครื่อง หรือเรียกใช้คำสั่งบนแล็ปท็อปของคุณ โดยยังคงให้ Gateway อยู่บน cloudฮับ: แพลตฟอร์ม การเข้าถึงระยะไกล: Gateway ระยะไกล Nodes: Nodes, Nodes CLI
คำตอบสั้น ๆ: เป็นไปได้ แต่ไม่แนะนำ ขั้นตอนอัปเดตสามารถรีสตาร์ต Gateway (ซึ่งจะตัดเซสชันที่ใช้งานอยู่), อาจต้องใช้ git checkout ที่สะอาด และ อาจขอการยืนยัน ปลอดภัยกว่า: เรียกใช้อัปเดตจากเชลล์ในฐานะผู้ควบคุมระบบใช้ CLI:
openclaw update
openclaw update status
openclaw update --channel stable|beta|dev
openclaw update --tag <dist-tag|version>
openclaw update --no-restart
หากคุณจำเป็นต้องทำอัตโนมัติจาก agent:
openclaw update --yes --no-restart
openclaw gateway restart
เอกสาร: อัปเดต, การอัปเดต
openclaw onboard คือเส้นทางตั้งค่าที่แนะนำ ใน โหมด local จะพาคุณทำสิ่งเหล่านี้:
  • การตั้งค่าโมเดล/auth (provider OAuth, API keys, Anthropic setup-token รวมถึงตัวเลือกโมเดล local เช่น LM Studio)
  • ตำแหน่ง Workspace + ไฟล์ bootstrap
  • การตั้งค่า Gateway (bind/port/auth/tailscale)
  • ช่องทาง (WhatsApp, Telegram, Discord, Mattermost, Signal, iMessage รวมถึง Plugin ช่องทางที่รวมมา เช่น QQ Bot)
  • การติดตั้ง daemon (LaunchAgent บน macOS; systemd user unit บน Linux/WSL2)
  • Health checks และการเลือก Skills
นอกจากนี้ยังเตือนหากโมเดลที่คุณกำหนดค่าไว้ไม่รู้จักหรือไม่มี auth
ไม่จำเป็น คุณสามารถรัน OpenClaw ด้วย API keys (Anthropic/OpenAI/อื่น ๆ) หรือด้วย โมเดลแบบ local-only เพื่อให้ข้อมูลของคุณอยู่บนอุปกรณ์ของคุณ subscription (Claude Pro/Max หรือ OpenAI Codex) เป็นวิธีเสริมสำหรับยืนยันตัวตนกับ provider เหล่านั้นสำหรับ Anthropic ใน OpenClaw การแบ่งที่ใช้งานจริงคือ:
  • Anthropic API key: การคิดค่าบริการ Anthropic API ตามปกติ
  • Claude CLI / การยืนยันตัวตน Claude subscription ใน OpenClaw: เจ้าหน้าที่ Anthropic แจ้งเราว่าการใช้งานนี้ได้รับอนุญาตอีกครั้ง และ OpenClaw ถือว่าการใช้งาน claude -p ได้รับการอนุมัติสำหรับ integration นี้ เว้นแต่ว่า Anthropic จะเผยแพร่นโยบายใหม่
สำหรับโฮสต์ gateway ที่ใช้งานระยะยาว Anthropic API keys ยังคงเป็นการตั้งค่าที่ คาดการณ์ได้มากกว่า OpenAI Codex OAuth รองรับอย่างชัดเจนสำหรับ เครื่องมือภายนอกอย่าง OpenClawOpenClaw ยังรองรับตัวเลือก hosted แบบ subscription-style อื่น ๆ รวมถึง Qwen Cloud Coding Plan, MiniMax Coding Plan และ Z.AI / GLM Coding Planเอกสาร: Anthropic, OpenAI, Qwen Cloud, MiniMax, GLM Models, โมเดล local, โมเดล
ได้เจ้าหน้าที่ Anthropic แจ้งเราว่าการใช้งาน Claude CLI แบบ OpenClaw-style ได้รับอนุญาตอีกครั้ง ดังนั้น OpenClaw จึงถือว่าการยืนยันตัวตนด้วย Claude subscription และการใช้งาน claude -p ได้รับการอนุมัติ สำหรับ integration นี้ เว้นแต่ว่า Anthropic จะเผยแพร่นโยบายใหม่ หากคุณต้องการ การตั้งค่าฝั่งเซิร์ฟเวอร์ที่คาดการณ์ได้มากที่สุด ให้ใช้ Anthropic API key แทน
รองรับเจ้าหน้าที่ Anthropic แจ้งเราว่าการใช้งานนี้ได้รับอนุญาตอีกครั้ง ดังนั้น OpenClaw จึงถือว่า การใช้ Claude CLI ซ้ำและการใช้งาน claude -p ได้รับการอนุมัติสำหรับ integration นี้ เว้นแต่ว่า Anthropic จะเผยแพร่นโยบายใหม่Anthropic setup-token ยังคงพร้อมใช้งานในฐานะเส้นทาง token ของ OpenClaw ที่รองรับ แต่ตอนนี้ OpenClaw เลือกใช้ Claude CLI ซ้ำและ claude -p เมื่อพร้อมใช้งานเป็นหลัก สำหรับ production หรือ workload แบบหลายผู้ใช้ การยืนยันตัวตนด้วย Anthropic API key ยังคงเป็น ตัวเลือกที่ปลอดภัยกว่าและคาดการณ์ได้มากกว่า หากคุณต้องการตัวเลือก hosted แบบ subscription-style อื่นใน OpenClaw โปรดดู OpenAI, Qwen / Model Cloud, MiniMax และ GLM Models
นั่นหมายความว่า โควตา/ขีดจำกัดอัตราของ Anthropic ของคุณหมดแล้วสำหรับช่วงเวลาปัจจุบัน หากคุณ ใช้ Claude CLI ให้รอให้ช่วงเวลารีเซ็ตหรืออัปเกรดแผนของคุณ หากคุณ ใช้ Anthropic API key ให้ตรวจสอบ Anthropic Console สำหรับ usage/billing และเพิ่มขีดจำกัดตามต้องการหากข้อความเป็นโดยเฉพาะ: Extra usage is required for long context requests แปลว่าคำขอกำลังพยายามใช้ beta context 1M ของ Anthropic (context1m: true) ซึ่งใช้งานได้เฉพาะเมื่อ credential ของคุณมีสิทธิ์สำหรับการคิดค่าบริการ long-context (การคิดค่าบริการ API key หรือ เส้นทาง OpenClaw Claude-login ที่เปิดใช้ Extra Usage)เคล็ดลับ: ตั้งค่า โมเดลสำรอง เพื่อให้ OpenClaw ยังตอบกลับได้ในขณะที่ผู้ให้บริการถูกจำกัดอัตรา ดู โมเดล, OAuth, และ /gateway/troubleshooting#anthropic-429-extra-usage-required-for-long-context.
รองรับ OpenClaw มีผู้ให้บริการ Amazon Bedrock (Converse) ที่รวมมาด้วย เมื่อมีเครื่องหมาย env ของ AWS OpenClaw จะค้นพบแค็ตตาล็อก Bedrock แบบสตรีมมิง/ข้อความโดยอัตโนมัติและรวมเข้าเป็นผู้ให้บริการ amazon-bedrock โดยนัย มิฉะนั้นคุณสามารถเปิดใช้ plugins.entries.amazon-bedrock.config.discovery.enabled อย่างชัดเจน หรือเพิ่มรายการผู้ให้บริการด้วยตนเองได้ ดู Amazon Bedrock และ ผู้ให้บริการโมเดล หากคุณต้องการโฟลว์คีย์ที่มีการจัดการ พร็อกซีที่เข้ากันได้กับ OpenAI หน้า Bedrock ก็ยังเป็นตัวเลือกที่ใช้ได้
OpenClaw รองรับ OpenAI Code (Codex) ผ่าน OAuth (ลงชื่อเข้าใช้ ChatGPT) ใช้ openai/gpt-5.5 สำหรับการตั้งค่าทั่วไป: การยืนยันตัวตนด้วยการสมัครสมาชิก ChatGPT/Codex พร้อม การดำเนินการผ่านเซิร์ฟเวอร์แอป Codex แบบเนทีฟ การอ้างอิงโมเดล openai-codex/gpt-* เป็นการกำหนดค่าเดิมที่ซ่อมโดย openclaw doctor --fix การเข้าถึงด้วยคีย์ API ของ OpenAI โดยตรงยังพร้อมใช้งานสำหรับพื้นผิว API ของ OpenAI ที่ไม่ใช่ agent และสำหรับโมเดล agent ผ่านโปรไฟล์คีย์ API openai-codex แบบมีลำดับ ดู ผู้ให้บริการโมเดล และ การเริ่มต้นใช้งาน (CLI)
openai-codex คือ id ของผู้ให้บริการและโปรไฟล์การยืนยันตัวตนสำหรับ ChatGPT/Codex OAuth การกำหนดค่าเก่ากว่ายังเคยใช้เป็นคำนำหน้าโมเดลด้วย:
  • openai/gpt-5.5 = การยืนยันตัวตนด้วยการสมัครสมาชิก ChatGPT/Codex พร้อม runtime Codex แบบเนทีฟสำหรับรอบ agent
  • openai-codex/gpt-5.5 = เส้นทางโมเดลเดิมที่ซ่อมโดย openclaw doctor --fix
  • openai/gpt-5.5 พร้อมโปรไฟล์คีย์ API openai-codex แบบมีลำดับ = การยืนยันตัวตนด้วยคีย์ API สำหรับโมเดล agent ของ OpenAI
  • openai-codex:... = id โปรไฟล์การยืนยันตัวตน ไม่ใช่การอ้างอิงโมเดล
หากคุณต้องการเส้นทางการเรียกเก็บเงิน/ขีดจำกัดของ OpenAI Platform โดยตรง ให้ตั้งค่า OPENAI_API_KEY หากคุณต้องการการยืนยันตัวตนด้วยการสมัครสมาชิก ChatGPT/Codex ให้ลงชื่อเข้าใช้ด้วย openclaw models auth login --provider openai-codex เก็บการอ้างอิงโมเดลเป็น openai/gpt-5.5; การอ้างอิงโมเดล openai-codex/* เป็นการกำหนดค่าเดิมที่ openclaw doctor --fix เขียนใหม่
Codex OAuth ใช้กรอบโควตาที่ OpenAI จัดการและขึ้นกับแผน ในทางปฏิบัติ ขีดจำกัดเหล่านั้นอาจแตกต่างจากประสบการณ์บนเว็บไซต์/แอป ChatGPT แม้ว่า ทั้งสองจะผูกกับบัญชีเดียวกันก็ตามOpenClaw สามารถแสดงกรอบการใช้งาน/โควตาของผู้ให้บริการที่มองเห็นได้ในปัจจุบันใน openclaw models status แต่จะไม่สร้างหรือปรับสิทธิ์ของเว็บ ChatGPT ให้เป็นการเข้าถึง API โดยตรง หากคุณต้องการเส้นทางการเรียกเก็บเงิน/ขีดจำกัดของ OpenAI Platform โดยตรง ให้ใช้ openai/* พร้อมคีย์ API
รองรับ OpenClaw รองรับ OAuth การสมัครสมาชิก OpenAI Code (Codex) อย่างเต็มรูปแบบ OpenAI อนุญาตการใช้งาน OAuth แบบสมัครสมาชิกในเครื่องมือ/เวิร์กโฟลว์ภายนอก เช่น OpenClaw อย่างชัดเจน การเริ่มต้นใช้งานสามารถรันโฟลว์ OAuth ให้คุณได้ดู OAuth, ผู้ให้บริการโมเดล, และ การเริ่มต้นใช้งาน (CLI)
Gemini CLI ใช้ โฟลว์การยืนยันตัวตนของ plugin ไม่ใช่ client id หรือ secret ใน openclaw.jsonขั้นตอน:
  1. ติดตั้ง Gemini CLI ในเครื่องเพื่อให้ gemini อยู่บน PATH
    • Homebrew: brew install gemini-cli
    • npm: npm install -g @google/gemini-cli
  2. เปิดใช้ plugin: openclaw plugins enable google
  3. เข้าสู่ระบบ: openclaw models auth login --provider google-gemini-cli --set-default
  4. โมเดลเริ่มต้นหลังเข้าสู่ระบบ: google-gemini-cli/gemini-3-flash-preview
  5. หากคำขอล้มเหลว ให้ตั้งค่า GOOGLE_CLOUD_PROJECT หรือ GOOGLE_CLOUD_PROJECT_ID บนโฮสต์ Gateway
สิ่งนี้จะเก็บโทเค็น OAuth ไว้ในโปรไฟล์การยืนยันตัวตนบนโฮสต์ Gateway รายละเอียด: ผู้ให้บริการโมเดล
โดยทั่วไปไม่เหมาะ OpenClaw ต้องการบริบทขนาดใหญ่ + ความปลอดภัยที่แข็งแรง การ์ดขนาดเล็กจะตัดทอนและรั่วไหล หากจำเป็นจริง ๆ ให้รันบิลด์โมเดลที่ ใหญ่ที่สุด ที่คุณรันในเครื่องได้ (LM Studio) และดู /gateway/local-models โมเดลที่เล็กกว่า/ผ่านการ quantize เพิ่มความเสี่ยงจาก prompt-injection - ดู ความปลอดภัย
เลือก endpoint ที่ตรึงภูมิภาค OpenRouter เปิดเผยตัวเลือกที่โฮสต์ในสหรัฐฯ สำหรับ MiniMax, Kimi, และ GLM; เลือกเวอร์ชันที่โฮสต์ในสหรัฐฯ เพื่อเก็บข้อมูลไว้ในภูมิภาค คุณยังสามารถแสดง Anthropic/OpenAI ควบคู่กับตัวเลือกเหล่านี้ได้โดยใช้ models.mode: "merge" เพื่อให้ fallback ยังพร้อมใช้งานขณะเคารพผู้ให้บริการตามภูมิภาคที่คุณเลือก
ไม่ต้อง OpenClaw รันบน macOS หรือ Linux (Windows ผ่าน WSL2) ได้ Mac mini เป็นทางเลือก - บางคน ซื้อมาเป็นโฮสต์ที่เปิดตลอดเวลา แต่ VPS ขนาดเล็ก เซิร์ฟเวอร์ที่บ้าน หรือเครื่องระดับ Raspberry Pi ก็ใช้ได้เช่นกันคุณต้องใช้ Mac เฉพาะ สำหรับเครื่องมือที่ใช้ได้เฉพาะบน macOS สำหรับ iMessage ให้ใช้ iMessage พร้อม imsg บน Mac ใดก็ได้ที่ลงชื่อเข้าใช้ Messages หาก Gateway รันบน Linux หรือที่อื่น ให้ตั้งค่า channels.imessage.cliPath เป็น wrapper SSH ที่รัน imsg บน Mac เครื่องนั้น หากคุณต้องการเครื่องมืออื่นที่ใช้ได้เฉพาะบน macOS ให้รัน Gateway บน Mac หรือจับคู่ node macOSเอกสาร: iMessage, Nodes, โหมด Mac ระยะไกล
คุณต้องมี อุปกรณ์ macOS บางเครื่อง ที่ลงชื่อเข้าใช้ Messages อยู่ ไม่จำเป็นต้องเป็น Mac mini - Mac เครื่องใดก็ได้ใช้ได้ ใช้ iMessage พร้อม imsg; Gateway สามารถรันบน Mac เครื่องนั้น หรือรันที่อื่นพร้อม wrapper SSH cliPath ก็ได้การตั้งค่าที่พบบ่อย:
  • รัน Gateway บน Linux/VPS และตั้งค่า channels.imessage.cliPath เป็น wrapper SSH ที่รัน imsg บน Mac ที่ลงชื่อเข้าใช้ Messages
  • รันทุกอย่างบน Mac หากคุณต้องการการตั้งค่าเครื่องเดียวที่ง่ายที่สุด
เอกสาร: iMessage, Nodes, โหมด Mac ระยะไกล
ได้ Mac mini สามารถรัน Gateway และ MacBook Pro ของคุณสามารถเชื่อมต่อเป็น node (อุปกรณ์คู่ขนาน) Nodes ไม่รัน Gateway - แต่ให้ความสามารถเพิ่มเติม เช่น หน้าจอ/กล้อง/canvas และ system.run บนอุปกรณ์นั้นรูปแบบที่พบบ่อย:
  • Gateway บน Mac mini (เปิดตลอดเวลา)
  • MacBook Pro รันแอป macOS หรือโฮสต์ node และจับคู่กับ Gateway
  • ใช้ openclaw nodes status / openclaw nodes list เพื่อดู
เอกสาร: Nodes, Nodes CLI
ไม่แนะนำ ให้ใช้ Bun เราพบข้อบกพร่องของ runtime โดยเฉพาะกับ WhatsApp และ Telegram ใช้ Node สำหรับ gateways ที่เสถียรหากคุณยังต้องการทดลองกับ Bun ให้ทำบน gateway ที่ไม่ใช่ production และไม่มี WhatsApp/Telegram
channels.telegram.allowFrom คือ ID ผู้ใช้ Telegram ของผู้ส่งที่เป็นมนุษย์ (ตัวเลข) ไม่ใช่ชื่อผู้ใช้ของบอทการตั้งค่าจะถามเฉพาะ ID ผู้ใช้แบบตัวเลข หากคุณมีรายการ @username เดิมใน config อยู่แล้ว openclaw doctor --fix สามารถลอง resolve รายการเหล่านั้นได้ปลอดภัยกว่า (ไม่มีบอทของบุคคลที่สาม):
  • DM บอทของคุณ จากนั้นรัน openclaw logs --follow และอ่าน from.id
Bot API อย่างเป็นทางการ:
  • DM บอทของคุณ จากนั้นเรียก https://api.telegram.org/bot<bot_token>/getUpdates และอ่าน message.from.id
บุคคลที่สาม (เป็นส่วนตัวน้อยกว่า):
  • DM @userinfobot หรือ @getidsbot
ดู /channels/telegram
ได้ ผ่าน การกำหนดเส้นทางหลาย agent ผูก DM WhatsApp ของผู้ส่งแต่ละคน (peer kind: "direct", ผู้ส่งแบบ E.164 เช่น +15551234567) กับ agentId ที่ต่างกัน เพื่อให้แต่ละคนมี workspace และที่เก็บ session ของตนเอง การตอบกลับยังคงมาจาก บัญชี WhatsApp เดียวกัน และการควบคุมการเข้าถึง DM (channels.whatsapp.dmPolicy / channels.whatsapp.allowFrom) เป็นแบบ global ต่อบัญชี WhatsApp ดู การกำหนดเส้นทางหลาย agent และ WhatsApp
ได้ ใช้การกำหนดเส้นทางหลาย agent: ให้แต่ละ agent มีโมเดลเริ่มต้นของตนเอง จากนั้นผูกเส้นทางขาเข้า (บัญชีผู้ให้บริการหรือ peer เฉพาะ) กับแต่ละ agent ตัวอย่าง config อยู่ใน การกำหนดเส้นทางหลาย agent ดูเพิ่มเติม โมเดล และ การกำหนดค่า
ได้ Homebrew รองรับ Linux (Linuxbrew) การตั้งค่าแบบรวดเร็ว:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
echo 'eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"' >> ~/.profile
eval "$(/home/linuxbrew/.linuxbrew/bin/brew shellenv)"
brew install <formula>
หากคุณรัน OpenClaw ผ่าน systemd ตรวจสอบให้แน่ใจว่า PATH ของ service มี /home/linuxbrew/.linuxbrew/bin (หรือ prefix brew ของคุณ) เพื่อให้เครื่องมือที่ติดตั้งด้วย brew resolve ได้ใน shell ที่ไม่ใช่ login บิลด์ล่าสุดยัง prepend ไดเรกทอรี bin ของผู้ใช้ที่พบบ่อยบน service Linux systemd ด้วย (เช่น ~/.local/bin, ~/.npm-global/bin, ~/.local/share/pnpm, ~/.bun/bin) และเคารพ PNPM_HOME, NPM_CONFIG_PREFIX, BUN_INSTALL, VOLTA_HOME, ASDF_DATA_DIR, NVM_DIR, และ FNM_DIR เมื่อตั้งค่าไว้
  • การติดตั้งแบบแก้ไขได้ (git): checkout ซอร์สเต็ม แก้ไขได้ เหมาะที่สุดสำหรับผู้ร่วมพัฒนา คุณรันบิลด์ในเครื่องและแก้ไขโค้ด/เอกสารได้
  • การติดตั้ง npm: ติดตั้ง CLI แบบ global ไม่มี repo เหมาะที่สุดสำหรับ “แค่รันมัน” การอัปเดตมาจาก npm dist-tags
เอกสาร: เริ่มต้นใช้งาน, การอัปเดต
ได้ ใช้ openclaw update --channel ... เมื่อ OpenClaw ติดตั้งอยู่แล้ว สิ่งนี้ ไม่ลบข้อมูลของคุณ - เพียงเปลี่ยนการติดตั้งโค้ด OpenClaw เท่านั้น state (~/.openclaw) และ workspace (~/.openclaw/workspace) ของคุณจะไม่ถูกแตะต้องจาก npm ไป git:
openclaw update --channel dev
จาก git ไป npm:
openclaw update --channel stable
เพิ่ม --dry-run เพื่อดูตัวอย่างการสลับโหมดที่วางแผนไว้ก่อน updater จะรัน งานติดตามผลของ Doctor, รีเฟรชซอร์ส plugin สำหรับ channel เป้าหมาย, และ รีสตาร์ท gateway เว้นแต่คุณส่ง --no-restartinstaller สามารถบังคับโหมดใดโหมดหนึ่งได้เช่นกัน:
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method git
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --install-method npm
เคล็ดลับการสำรองข้อมูล: ดู กลยุทธ์การสำรองข้อมูล
คำตอบสั้น ๆ: หากคุณต้องการความน่าเชื่อถือ 24/7 ให้ใช้ VPS หากคุณต้องการ แรงเสียดทานต่ำที่สุดและยอมรับการ sleep/restart ได้ ให้รันในเครื่องแล็ปท็อป (Gateway ในเครื่อง)
  • ข้อดี: ไม่มีค่าเซิร์ฟเวอร์ เข้าถึงไฟล์ในเครื่องได้โดยตรง หน้าต่างเบราว์เซอร์แบบ live
  • ข้อเสีย: sleep/เครือข่ายหลุด = การเชื่อมต่อขาด, การอัปเดต OS/reboot ขัดจังหวะ, ต้องเปิดเครื่องค้างไว้
VPS / cloud
  • ข้อดี: เปิดทำงานตลอดเวลา, เครือข่ายเสถียร, ไม่มีปัญหาแล็ปท็อปเข้าสู่โหมดพัก, ดูแลให้ทำงานต่อเนื่องได้ง่ายกว่า
  • ข้อเสีย: มักรันแบบไม่มีหน้าจอ (ใช้ภาพหน้าจอ), เข้าถึงไฟล์ได้เฉพาะทางรีโมต, คุณต้องใช้ SSH เพื่ออัปเดต
หมายเหตุเฉพาะของ OpenClaw: WhatsApp/Telegram/Slack/Mattermost/Discord ทั้งหมดทำงานได้ดีจาก VPS ข้อแลกเปลี่ยนจริงเพียงอย่างเดียวคือ เบราว์เซอร์แบบไม่มีหน้าต่างแสดงผล เทียบกับหน้าต่างที่มองเห็นได้ ดู เบราว์เซอร์ค่าเริ่มต้นที่แนะนำ: ใช้ VPS หากคุณเคยมีปัญหา Gateway หลุดการเชื่อมต่อมาก่อน แบบโลคัลเหมาะมากเมื่อคุณกำลังใช้งาน Mac อยู่และต้องการเข้าถึงไฟล์ในเครื่องหรือทำ UI automation ด้วยเบราว์เซอร์ที่มองเห็นได้
ไม่จำเป็น แต่ แนะนำเพื่อความน่าเชื่อถือและการแยกสภาพแวดล้อม
  • โฮสต์เฉพาะ (VPS/Mac mini/Pi): เปิดทำงานตลอดเวลา, การพักเครื่อง/รีบูตขัดจังหวะน้อยกว่า, สิทธิ์สะอาดกว่า, ดูแลให้ทำงานต่อเนื่องได้ง่ายกว่า
  • แล็ปท็อป/เดสก์ท็อปที่ใช้ร่วมกัน: ใช้ทดสอบและใช้งานจริงได้ดีไม่มีปัญหา แต่คาดว่าจะมีการหยุดชั่วคราวเมื่อเครื่องเข้าสู่โหมดพักหรืออัปเดต
หากคุณต้องการข้อดีทั้งสองแบบ ให้เก็บ Gateway ไว้บนโฮสต์เฉพาะและจับคู่แล็ปท็อปของคุณเป็น Node สำหรับเครื่องมือหน้าจอ/กล้อง/exec แบบโลคัล ดู Nodes สำหรับคำแนะนำด้านความปลอดภัย อ่าน ความปลอดภัย
OpenClaw มีน้ำหนักเบา สำหรับ Gateway พื้นฐาน + ช่องทางแชตหนึ่งช่องทาง:
  • ขั้นต่ำสุด: 1 vCPU, RAM 1GB, ดิสก์ ~500MB
  • แนะนำ: 1-2 vCPU, RAM 2GB ขึ้นไปเพื่อเผื่อพื้นที่ใช้งาน (ล็อก, สื่อ, หลายช่องทาง) เครื่องมือ Node และ browser automation อาจใช้ทรัพยากรค่อนข้างมาก
OS: ใช้ Ubuntu LTS (หรือ Debian/Ubuntu รุ่นใหม่ใดก็ได้) เส้นทางการติดตั้งบน Linux ได้รับการทดสอบดีที่สุดที่นั่นเอกสาร: Linux, โฮสต์ VPS
ได้ ให้มอง VM เหมือนกับ VPS: ต้องเปิดทำงานตลอดเวลา, เข้าถึงได้, และมี RAM เพียงพอ สำหรับ Gateway และช่องทางใด ๆ ที่คุณเปิดใช้คำแนะนำพื้นฐาน:
  • ขั้นต่ำสุด: 1 vCPU, RAM 1GB
  • แนะนำ: RAM 2GB ขึ้นไป หากคุณรันหลายช่องทาง, browser automation, หรือเครื่องมือสื่อ
  • OS: Ubuntu LTS หรือ Debian/Ubuntu รุ่นใหม่อื่น
หากคุณใช้ Windows, WSL2 เป็นการตั้งค่าแบบ VM ที่ง่ายที่สุด และมีความเข้ากันได้กับเครื่องมือดีที่สุด ดู Windows, โฮสต์ VPS หากคุณกำลังรัน macOS ใน VM ดู macOS VM

ที่เกี่ยวข้อง