OpenClaw สามารถใช้โมเดล Amazon Bedrock ผ่านผู้ให้บริการสตรีมมิง Bedrock Converse ของ pi-ai ได้ การยืนยันตัวตนของ Bedrock ใช้ AWS SDK default credential chain ไม่ใช่ API keyDocumentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
| คุณสมบัติ | ค่า |
|---|---|
| ผู้ให้บริการ | amazon-bedrock |
| API | bedrock-converse-stream |
| การยืนยันตัวตน | ข้อมูลรับรอง AWS (ตัวแปรสภาพแวดล้อม, shared config, หรือ instance role) |
| Region | AWS_REGION หรือ AWS_DEFAULT_REGION (ค่าเริ่มต้น: us-east-1) |
เริ่มต้นใช้งาน
เลือกวิธียืนยันตัวตนที่คุณต้องการ แล้วทำตามขั้นตอนการตั้งค่า- Access keys / ตัวแปรสภาพแวดล้อม
- EC2 instance roles (IMDS)
การค้นพบโมเดลอัตโนมัติ
OpenClaw สามารถค้นพบโมเดล Bedrock ที่รองรับ สตรีมมิง และ เอาต์พุตข้อความ ได้โดยอัตโนมัติ การค้นพบใช้bedrock:ListFoundationModels และ
bedrock:ListInferenceProfiles และผลลัพธ์จะถูกแคชไว้ (ค่าเริ่มต้น: 1 ชั่วโมง)
วิธีเปิดใช้งานผู้ให้บริการแบบแฝง:
- หาก
plugins.entries.amazon-bedrock.config.discovery.enabledเป็นtrueOpenClaw จะพยายามค้นพบแม้ไม่มี AWS env marker อยู่ - หากไม่ได้ตั้งค่า
plugins.entries.amazon-bedrock.config.discovery.enabledOpenClaw จะเพิ่มผู้ให้บริการ Bedrock แบบแฝงโดยอัตโนมัติเฉพาะเมื่อเห็นหนึ่งใน AWS auth markers เหล่านี้:AWS_BEARER_TOKEN_BEDROCK,AWS_ACCESS_KEY_ID+AWS_SECRET_ACCESS_KEY, หรือAWS_PROFILE - เส้นทางการยืนยันตัวตน runtime ของ Bedrock จริงยังคงใช้ AWS SDK default chain ดังนั้น
shared config, SSO, และการยืนยันตัวตนด้วย IMDS instance-role จึงทำงานได้แม้เมื่อการค้นพบ
ต้องใช้
enabled: trueเพื่อเลือกเปิดใช้
สำหรับรายการ
models.providers["amazon-bedrock"] ที่กำหนดอย่างชัดเจน OpenClaw ยังคงสามารถ resolve การยืนยันตัวตนแบบ env-marker ของ Bedrock ได้ตั้งแต่เนิ่น ๆ จาก AWS env markers เช่น AWS_BEARER_TOKEN_BEDROCK โดยไม่บังคับให้โหลดการยืนยันตัวตน runtime ทั้งหมด เส้นทางการยืนยันตัวตนสำหรับการเรียกโมเดลจริงยังคงใช้ AWS SDK default chainตัวเลือก config สำหรับการค้นพบ
ตัวเลือก config สำหรับการค้นพบ
ตัวเลือก config อยู่ใต้
plugins.entries.amazon-bedrock.config.discovery:| ตัวเลือก | ค่าเริ่มต้น | คำอธิบาย |
|---|---|---|
enabled | auto | ในโหมดอัตโนมัติ OpenClaw จะเปิดใช้ผู้ให้บริการ Bedrock แบบแฝงเฉพาะเมื่อเห็น AWS env marker ที่รองรับ ตั้งค่าเป็น true เพื่อบังคับการค้นพบ |
region | AWS_REGION / AWS_DEFAULT_REGION / us-east-1 | AWS region ที่ใช้สำหรับการเรียก API การค้นพบ |
providerFilter | (ทั้งหมด) | จับคู่ชื่อผู้ให้บริการ Bedrock (เช่น anthropic, amazon) |
refreshInterval | 3600 | ระยะเวลาแคชเป็นวินาที ตั้งค่าเป็น 0 เพื่อปิดใช้งานการแคช |
defaultContextWindow | 32000 | หน้าต่างบริบทที่ใช้สำหรับโมเดลที่ค้นพบ (override หากคุณทราบขีดจำกัดของโมเดล) |
defaultMaxTokens | 4096 | จำนวนโทเค็นเอาต์พุตสูงสุดที่ใช้สำหรับโมเดลที่ค้นพบ (override หากคุณทราบขีดจำกัดของโมเดล) |
การตั้งค่าอย่างรวดเร็ว (เส้นทาง AWS)
คำแนะนำนี้จะสร้าง IAM role, แนบสิทธิ์ Bedrock, เชื่อมโยง instance profile, และเปิดใช้งานการค้นพบของ OpenClaw บนโฮสต์ EC2การกำหนดค่าขั้นสูง
Inference profiles
Inference profiles
OpenClaw ค้นพบ regional และ global inference profiles ควบคู่ไปกับ
foundation models เมื่อ profile แมปกับ foundation model ที่รู้จัก
profile จะสืบทอดความสามารถของโมเดลนั้น (หน้าต่างบริบท, โทเค็นสูงสุด,
reasoning, vision) และจะ inject region คำขอ Bedrock ที่ถูกต้อง
โดยอัตโนมัติ ซึ่งหมายความว่าโปรไฟล์ Claude ข้าม region ทำงานได้โดยไม่ต้อง
override ผู้ให้บริการด้วยตนเองID ของ inference profile จะมีรูปแบบเช่น
us.anthropic.claude-opus-4-6-v1:0 (regional)
หรือ anthropic.claude-opus-4-6-v1:0 (global) หากโมเดลที่รองรับมีอยู่แล้ว
ในผลลัพธ์การค้นพบ profile จะสืบทอดชุดความสามารถทั้งหมดของโมเดลนั้น
มิฉะนั้นจะใช้ค่าเริ่มต้นที่ปลอดภัยไม่จำเป็นต้องมีการกำหนดค่าเพิ่มเติม ตราบใดที่เปิดใช้งานการค้นพบและ IAM
principal มี bedrock:ListInferenceProfiles profiles จะปรากฏควบคู่กับ
foundation models ใน openclaw models listService tier
Service tier
โมเดล Bedrock บางรุ่นรองรับพารามิเตอร์
ตั้งค่า ค่าที่ใช้ได้คือ
service_tier เพื่อเพิ่มประสิทธิภาพด้านต้นทุน
หรือ latency มี tier ต่อไปนี้พร้อมใช้งาน:| Tier | คำอธิบาย |
|---|---|
default | tier มาตรฐานของ Bedrock |
flex | การประมวลผลแบบมีส่วนลดสำหรับ workload ที่ทนต่อ latency ที่ยาวขึ้นได้ |
priority | การประมวลผลแบบจัดลำดับความสำคัญสำหรับ workload ที่ไวต่อ latency |
reserved | ความจุที่จองไว้สำหรับ workload แบบ steady-state |
serviceTier (หรือ service_tier) ผ่าน agents.defaults.params สำหรับ
คำขอโมเดล Bedrock หรือกำหนดต่อโมเดลใน
agents.defaults.models["<model-key>"].params:default, flex, priority, และ reserved ไม่ใช่ทุก
โมเดลจะรองรับทุก tier หากขอ tier ที่ไม่รองรับ Bedrock จะ
คืนข้อผิดพลาดการตรวจสอบความถูกต้อง หมายเหตุ: ข้อความข้อผิดพลาดค่อนข้างทำให้เข้าใจผิด
อาจระบุว่า “The provided model identifier is invalid” แทนที่จะชี้ว่า
service tier ไม่รองรับ หากคุณเห็นข้อผิดพลาดนี้ ให้ตรวจสอบว่าโมเดล
รองรับ tier ที่ร้องขอหรือไม่Claude Opus 4.7 temperature
Claude Opus 4.7 temperature
Bedrock ปฏิเสธพารามิเตอร์
temperature สำหรับ Claude Opus 4.7 OpenClaw
จะละเว้น temperature โดยอัตโนมัติสำหรับ Bedrock ref ของ Opus 4.7 ใด ๆ รวมถึง
ID ของ foundation model, inference profiles ที่มีชื่อ, application inference
profiles ที่โมเดลเบื้องหลัง resolve เป็น Opus 4.7 ผ่าน
bedrock:GetInferenceProfile, และตัวแปร opus-4.7 แบบมีจุดพร้อม
คำนำหน้า region ที่เลือกใช้ได้ (us., eu., ap., apac., au., jp.,
global.) ไม่จำเป็นต้องมีปุ่ม config และการละเว้นนี้มีผลกับทั้ง
อ็อบเจ็กต์ตัวเลือกคำขอและฟิลด์ payload inferenceConfigGuardrails
Guardrails
คุณสามารถใช้ Amazon Bedrock Guardrails
กับการเรียกใช้โมเดล Bedrock ทั้งหมดได้โดยเพิ่มออบเจ็กต์
guardrail ลงในการกำหนดค่า Plugin
amazon-bedrock Guardrails ช่วยให้คุณบังคับใช้การกรองเนื้อหา,
การปฏิเสธหัวข้อ, ตัวกรองคำ, ตัวกรองข้อมูลที่ละเอียดอ่อน และการตรวจสอบ
การยึดโยงตามบริบทได้| ตัวเลือก | จำเป็น | คำอธิบาย |
|---|---|---|
guardrailIdentifier | ใช่ | ID ของ Guardrail (เช่น abc123) หรือ ARN แบบเต็ม (เช่น arn:aws:bedrock:us-east-1:123456789012:guardrail/abc123) |
guardrailVersion | ใช่ | หมายเลขเวอร์ชันที่เผยแพร่แล้ว หรือ "DRAFT" สำหรับฉบับร่างที่กำลังทำงาน |
streamProcessingMode | ไม่ | "sync" หรือ "async" สำหรับการประเมิน Guardrail ระหว่างการสตรีม หากละไว้ Bedrock จะใช้ค่าเริ่มต้นของตัวเอง |
trace | ไม่ | "enabled" หรือ "enabled_full" สำหรับการดีบัก; ละไว้หรือตั้งเป็น "disabled" สำหรับการใช้งานจริง |
Embeddings for memory search
Embeddings for memory search
Bedrock ยังสามารถทำหน้าที่เป็นผู้ให้บริการ embedding สำหรับ
การค้นหาหน่วยความจำ ได้ด้วย การตั้งค่านี้แยกจาก
ผู้ให้บริการ inference โดยตั้งค่า Embedding ของ Bedrock ใช้ลำดับข้อมูลรับรองของ AWS SDK เดียวกับ inference (บทบาทของอินสแตนซ์,
SSO, access keys, shared config และ web identity) ไม่ต้องใช้ API key
เมื่อ
agents.defaults.memorySearch.provider เป็น "bedrock":provider เป็น "auto" Bedrock จะถูกตรวจพบโดยอัตโนมัติหาก
ลำดับข้อมูลรับรองนั้น resolve สำเร็จโมเดล embedding ที่รองรับรวมถึง Amazon Titan Embed (v1, v2), Amazon Nova
Embed, Cohere Embed (v3, v4) และ TwelveLabs Marengo ดู
ข้อมูลอ้างอิงการกำหนดค่าหน่วยความจำ — Bedrock
สำหรับรายการโมเดลทั้งหมดและตัวเลือกมิติNotes and caveats
Notes and caveats
- Bedrock ต้องเปิดใช้ model access ในบัญชี/ภูมิภาค AWS ของคุณ
- การค้นพบอัตโนมัติต้องมีสิทธิ์
bedrock:ListFoundationModelsและbedrock:ListInferenceProfiles - หากคุณพึ่งพาโหมดอัตโนมัติ ให้ตั้งค่าเครื่องหมาย env สำหรับการยืนยันตัวตน AWS ที่รองรับอย่างใดอย่างหนึ่งบน
โฮสต์ Gateway หากคุณต้องการการยืนยันตัวตนแบบ IMDS/shared-config โดยไม่มีเครื่องหมาย env ให้ตั้งค่า
plugins.entries.amazon-bedrock.config.discovery.enabled: true - OpenClaw แสดงแหล่งที่มาของข้อมูลรับรองตามลำดับนี้:
AWS_BEARER_TOKEN_BEDROCK, จากนั้นAWS_ACCESS_KEY_ID+AWS_SECRET_ACCESS_KEY, จากนั้นAWS_PROFILE, จากนั้น ลำดับ AWS SDK เริ่มต้น - การรองรับ reasoning ขึ้นอยู่กับโมเดล; ตรวจสอบการ์ดโมเดล Bedrock สำหรับ ความสามารถปัจจุบัน
- หากคุณต้องการโฟลว์คีย์ที่มีการจัดการ คุณยังสามารถวางพร็อกซีที่เข้ากันได้กับ OpenAI ไว้หน้า Bedrock แล้วกำหนดค่าเป็นผู้ให้บริการ OpenAI แทนได้
ที่เกี่ยวข้อง
Model selection
การเลือกผู้ให้บริการ, model refs และพฤติกรรม failover
Memory search
Embedding ของ Bedrock สำหรับการกำหนดค่าการค้นหาหน่วยความจำ
Memory config reference
รายการโมเดล embedding ของ Bedrock ทั้งหมดและตัวเลือกมิติ
Troubleshooting
การแก้ไขปัญหาทั่วไปและคำถามที่พบบ่อย