Skip to main content

Documentation Index

Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt

Use this file to discover all available pages before exploring further.

Fireworks เปิดให้ใช้โมเดล open-weight และโมเดลแบบ routed ผ่าน API ที่เข้ากันได้กับ OpenAI OpenClaw มี Plugin ผู้ให้บริการ Fireworks แบบ bundled ซึ่งมาพร้อมโมเดล Kimi ที่จัดทำแค็ตตาล็อกไว้ล่วงหน้า 2 รุ่น และรับ model id หรือ router id ใดๆ ของ Fireworks ได้ขณะรันไทม์
คุณสมบัติค่า
รหัสผู้ให้บริการfireworks (นามแฝง: fireworks-ai)
Pluginbundled, enabledByDefault: true
ตัวแปรสภาพแวดล้อมสำหรับยืนยันตัวตนFIREWORKS_API_KEY
แฟล็กการเริ่มต้นใช้งาน--auth-choice fireworks-api-key
แฟล็ก CLI โดยตรง--fireworks-api-key <key>
APIเข้ากันได้กับ OpenAI (openai-completions)
URL ฐานhttps://api.fireworks.ai/inference/v1
โมเดลเริ่มต้นfireworks/accounts/fireworks/routers/kimi-k2p5-turbo
นามแฝงเริ่มต้นKimi K2.5 Turbo

เริ่มต้นใช้งาน

1

Set the Fireworks API key

openclaw onboard --auth-choice fireworks-api-key
การเริ่มต้นใช้งานจะจัดเก็บคีย์ไว้กับผู้ให้บริการ fireworks ในโปรไฟล์การยืนยันตัวตนของคุณ และตั้งค่าเราเตอร์ Kimi K2.5 Turbo ของ Fire Pass เป็นโมเดลเริ่มต้น
2

Verify the model is available

openclaw models list --provider fireworks
รายการควรมี Kimi K2.6 และ Kimi K2.5 Turbo (Fire Pass) หาก FIREWORKS_API_KEY ไม่สามารถ resolve ได้ openclaw models status --json จะรายงานข้อมูลรับรองที่หายไปภายใต้ auth.unusableProfiles

การตั้งค่าแบบไม่โต้ตอบ

สำหรับการติดตั้งผ่านสคริปต์หรือ CI ให้ส่งทุกอย่างผ่านบรรทัดคำสั่ง:
openclaw onboard --non-interactive \
  --mode local \
  --auth-choice fireworks-api-key \
  --fireworks-api-key "$FIREWORKS_API_KEY" \
  --skip-health \
  --accept-risk

แค็ตตาล็อกในตัว

การอ้างอิงโมเดลชื่ออินพุตคอนเท็กซ์เอาต์พุตสูงสุดThinking
fireworks/accounts/fireworks/models/kimi-k2p6Kimi K2.6ข้อความ + รูปภาพ262,144262,144บังคับปิด
fireworks/accounts/fireworks/routers/kimi-k2p5-turboKimi K2.5 Turbo (Fire Pass)ข้อความ + รูปภาพ256,000256,000บังคับปิด (ค่าเริ่มต้น)
OpenClaw ปักหมุดโมเดล Fireworks Kimi ทั้งหมดเป็น thinking: off เพราะ Fireworks ปฏิเสธพารามิเตอร์ thinking ของ Kimi ในโปรดักชัน การ route โมเดลเดียวกันผ่าน Moonshot โดยตรงจะรักษาเอาต์พุตการให้เหตุผลของ Kimi ไว้ ดู โหมด thinking สำหรับการสลับระหว่างผู้ให้บริการ

model id แบบกำหนดเองของ Fireworks

OpenClaw รับ model id หรือ router id ใดๆ ของ Fireworks ได้ขณะรันไทม์ ใช้ id ตรงตามที่ Fireworks แสดงและเติม prefix ด้วย fireworks/ การ resolve แบบไดนามิกจะ clone เทมเพลต Fire Pass (อินพุตข้อความ + รูปภาพ, API ที่เข้ากันได้กับ OpenAI, ค่าใช้จ่ายเริ่มต้นเป็นศูนย์) และปิด thinking โดยอัตโนมัติเมื่อ id ตรงกับรูปแบบ Kimi
{
  agents: {
    defaults: {
      model: {
        primary: "fireworks/accounts/fireworks/models/<your-model-id>",
      },
    },
  },
}
การอ้างอิงโมเดล Fireworks ทุกตัวใน OpenClaw เริ่มต้นด้วย fireworks/ ตามด้วย id หรือเส้นทางเราเตอร์ที่ตรงจากแพลตฟอร์ม Fireworks ตัวอย่างเช่น:
  • โมเดลเราเตอร์: fireworks/accounts/fireworks/routers/kimi-k2p5-turbo
  • โมเดลโดยตรง: fireworks/accounts/fireworks/models/<model-name>
OpenClaw จะตัด prefix fireworks/ ออกเมื่อสร้างคำขอ API และส่งเส้นทางที่เหลือไปยัง endpoint ของ Fireworks เป็นฟิลด์ model ที่เข้ากันได้กับ OpenAI
Fireworks K2.6 จะส่งคืน 400 หากคำขอมีพารามิเตอร์ reasoning_* แม้ว่า Kimi จะรองรับ thinking ผ่าน API ของ Moonshot เองก็ตาม นโยบายแบบ bundled (extensions/fireworks/thinking-policy.ts) จะประกาศเฉพาะระดับ thinking off สำหรับ model id ของ Kimi เพื่อให้การสลับ /think แบบแมนนวลและพื้นผิวนโยบายผู้ให้บริการสอดคล้องกับสัญญารันไทม์หากต้องการใช้การให้เหตุผลของ Kimi แบบครบวงจร ให้กำหนดค่า ผู้ให้บริการ Moonshot และ route โมเดลเดียวกันผ่านผู้ให้บริการนั้น
หาก Gateway ทำงานเป็นบริการที่มีการจัดการ (launchd, systemd, Docker) คีย์ Fireworks ต้องมองเห็นได้สำหรับโปรเซสนั้น ไม่ใช่แค่ shell แบบโต้ตอบของคุณ
คีย์ที่อยู่เฉพาะใน ~/.profile จะไม่ช่วย daemon ของ launchd หรือ systemd เว้นแต่ว่าสภาพแวดล้อมนั้นจะถูกนำเข้าไปที่นั่นด้วย ตั้งค่าคีย์ใน ~/.openclaw/.env หรือผ่าน env.shellEnv เพื่อให้โปรเซส gateway อ่านได้
บน macOS, openclaw gateway install จะเชื่อม ~/.openclaw/.env เข้ากับไฟล์สภาพแวดล้อมของ LaunchAgent อยู่แล้ว ให้รัน install อีกครั้ง (หรือ openclaw doctor --fix) หลังจากหมุนเวียนคีย์

ที่เกี่ยวข้อง

Model providers

การเลือกผู้ให้บริการ การอ้างอิงโมเดล และพฤติกรรม failover

Thinking modes

ระดับ /think นโยบายผู้ให้บริการ และการ route โมเดลที่มีความสามารถด้านการให้เหตุผล

Moonshot

รัน Kimi พร้อมเอาต์พุต thinking แบบเนทีฟผ่าน API ของ Moonshot เอง

Troubleshooting

การแก้ไขปัญหาทั่วไปและคำถามที่พบบ่อย