メインコンテンツへスキップ

LLM Task

llm-task は、JSON 専用の LLM タスクを実行し、 構造化出力を返す任意の plugin toolです(必要に応じて JSON Schema に対して検証可能です)。 これは Lobster のようなワークフローエンジンに最適です。各ワークフローごとにカスタムの OpenClaw コードを書かなくても、 単一の LLM ステップを追加できます。

plugin を有効にする

  1. plugin を有効にします:
{
  "plugins": {
    "entries": {
      "llm-task": { "enabled": true }
    }
  }
}
  1. tool を allowlist に追加します(optional: true で登録されます):
{
  "agents": {
    "list": [
      {
        "id": "main",
        "tools": { "allow": ["llm-task"] }
      }
    ]
  }
}

設定(任意)

{
  "plugins": {
    "entries": {
      "llm-task": {
        "enabled": true,
        "config": {
          "defaultProvider": "openai-codex",
          "defaultModel": "gpt-5.4",
          "defaultAuthProfileId": "main",
          "allowedModels": ["openai-codex/gpt-5.4"],
          "maxTokens": 800,
          "timeoutMs": 30000
        }
      }
    }
  }
}
allowedModelsprovider/model 文字列の allowlist です。設定されている場合、 一覧外のリクエストは拒否されます。

tool パラメーター

  • prompt(文字列、必須)
  • input(任意、任意)
  • schema(オブジェクト、任意の JSON Schema)
  • provider(文字列、任意)
  • model(文字列、任意)
  • thinking(文字列、任意)
  • authProfileId(文字列、任意)
  • temperature(数値、任意)
  • maxTokens(数値、任意)
  • timeoutMs(数値、任意)
thinking は、lowmedium などの標準的な OpenClaw 推論プリセットを受け付けます。

出力

解析済み JSON を含む details.json を返します(schema が指定されている場合はそれに対して検証も行います)。

例: Lobster ワークフローステップ

openclaw.invoke --tool llm-task --action json --args-json '{
  "prompt": "Given the input email, return intent and draft.",
  "thinking": "low",
  "input": {
    "subject": "Hello",
    "body": "Can you help?"
  },
  "schema": {
    "type": "object",
    "properties": {
      "intent": { "type": "string" },
      "draft": { "type": "string" }
    },
    "required": ["intent", "draft"],
    "additionalProperties": false
  }
}'

安全に関する注意

  • この tool はJSON 専用であり、モデルには JSON のみを出力するよう指示します(コードフェンスなし、説明文なし)。
  • この実行では、モデルに対して tools は公開されません。
  • schema で検証しない限り、出力は信頼できないものとして扱ってください。
  • 副作用のあるステップ(send、post、exec)の前に承認を入れてください。