Documentation Index
Fetch the complete documentation index at: https://docs.openclaw.ai/llms.txt
Use this file to discover all available pages before exploring further.
memory-lancedb è un Plugin di memoria incluso che archivia la memoria a lungo termine in
LanceDB e usa gli embedding per il richiamo. Può richiamare automaticamente le
memorie pertinenti prima di un turno del modello e acquisire i fatti importanti dopo una risposta.
Usalo quando vuoi un database vettoriale locale per la memoria, hai bisogno di un
endpoint di embedding compatibile con OpenAI o vuoi mantenere un database di memoria al di fuori
dell’archivio di memoria integrato predefinito.
memory-lancedb è un Plugin di Active Memory. Abilitalo selezionando lo slot di memoria
con plugins.slots.memory = "memory-lancedb". Plugin complementari come
memory-wiki possono essere eseguiti insieme, ma un solo Plugin possiede lo slot di Active Memory.Avvio rapido
Embedding supportati da provider
memory-lancedb può usare gli stessi adattatori dei provider di embedding per la memoria di
memory-core. Imposta embedding.provider e ometti embedding.apiKey per usare il
profilo di autenticazione configurato del provider, la variabile d’ambiente o
models.providers.<provider>.apiKey.
openai-codex) non è una credenziale per gli
embedding di OpenAI Platform. Per gli embedding OpenAI, usa un profilo di autenticazione con chiave API OpenAI,
OPENAI_API_KEY o models.providers.openai.apiKey. Gli utenti solo OAuth possono usare
un altro provider con supporto agli embedding, come GitHub Copilot o Ollama.
Embedding Ollama
Per gli embedding Ollama, preferisci il provider di embedding Ollama incluso. Usa l’endpoint nativo Ollama/api/embed e segue le stesse regole di autenticazione/URL di base del
provider Ollama documentato in Ollama.
dimensions per i modelli di embedding non standard. OpenClaw conosce le
dimensioni per text-embedding-3-small e text-embedding-3-large; i modelli
personalizzati richiedono il valore nella configurazione affinché LanceDB possa creare la colonna vettoriale.
Per i piccoli modelli di embedding locali, riduci recallMaxChars se vedi errori di
lunghezza del contesto dal server locale.
Provider compatibili con OpenAI
Alcuni provider di embedding compatibili con OpenAI rifiutano il parametroencoding_format, mentre altri lo ignorano e restituiscono sempre vettori number[].
memory-lancedb quindi omette encoding_format nelle richieste di embedding e
accetta sia risposte con array di float sia risposte float32 codificate in base64.
Se hai un endpoint di embedding grezzo compatibile con OpenAI che non dispone di un
adattatore provider incluso, ometti embedding.provider (o lascialo come openai) e
imposta embedding.apiKey più embedding.baseUrl. Questo preserva il percorso client diretto
compatibile con OpenAI.
Imposta embedding.dimensions per i provider le cui dimensioni del modello non sono integrate.
Per esempio, ZhiPu embedding-3 usa dimensioni 2048:
Limiti di richiamo e acquisizione
memory-lancedb ha due limiti di testo separati:
| Impostazione | Predefinito | Intervallo | Si applica a |
|---|---|---|---|
recallMaxChars | 1000 | 100-10000 | testo inviato all’API di embedding per il richiamo |
captureMaxChars | 500 | 100-10000 | lunghezza del messaggio dell’assistente idonea all’acquisizione |
recallMaxChars controlla il richiamo automatico, lo strumento memory_recall, il
percorso di query memory_forget e openclaw ltm search. Il richiamo automatico preferisce
l’ultimo messaggio utente del turno e ricade sul prompt completo solo quando non è
disponibile alcun messaggio utente. Questo mantiene i metadati del canale e i grandi blocchi di prompt
fuori dalla richiesta di embedding.
captureMaxChars controlla se una risposta è abbastanza breve da essere considerata
per l’acquisizione automatica. Non limita gli embedding delle query di richiamo.
Comandi
Quandomemory-lancedb è il Plugin di Active Memory, registra lo spazio dei nomi CLI
ltm:
openclaw memory con un sottocomando query non vettoriale
che viene eseguito direttamente sulla tabella LanceDB:
--cols <columns>: allowlist di colonne separate da virgole (predefinita suid,text,importance,category,createdAt).--filter <condition>: clausola WHERE in stile SQL; limitata a 200 caratteri e ristretta ad alfanumerici, operatori di confronto, virgolette, parentesi e un piccolo insieme di punteggiatura sicura.--limit <n>: intero positivo; valore predefinito10.--order-by <column>:<asc|desc>: ordinamento in memoria applicato dopo il filtro; la colonna di ordinamento viene inclusa automaticamente nella proiezione.
memory_recallper il richiamo basato su LanceDBmemory_storeper salvare fatti importanti, preferenze, decisioni ed entitàmemory_forgetper rimuovere le memorie corrispondenti
Archiviazione
Per impostazione predefinita, i dati LanceDB si trovano sotto~/.openclaw/memory/lancedb. Sovrascrivi il
percorso con dbPath:
storageOptions accetta coppie chiave/valore stringa per i backend di archiviazione LanceDB e
supporta l’espansione ${ENV_VAR}:
Dipendenze di runtime
memory-lancedb dipende dal pacchetto nativo @lancedb/lancedb. Le installazioni
OpenClaw pacchettizzate provano prima la dipendenza di runtime inclusa e possono riparare la
dipendenza di runtime del Plugin nello stato di OpenClaw quando l’importazione inclusa non è
disponibile.
Se un’installazione precedente registra un errore di dist/package.json mancante o di
@lancedb/lancedb mancante durante il caricamento del Plugin, aggiorna OpenClaw e riavvia il
Gateway.
Se il Plugin registra che LanceDB non è disponibile su darwin-x64, usa il backend di memoria predefinito su quella macchina, sposta il Gateway su una piattaforma supportata o
disabilita memory-lancedb.
Risoluzione dei problemi
La lunghezza dell’input supera la lunghezza del contesto
Di solito significa che il modello di embedding ha rifiutato la query di richiamo:recallMaxChars, quindi riavvia il Gateway:
Modello di embedding non supportato
Senzadimensions, sono note solo le dimensioni degli embedding OpenAI integrate.
Per modelli di embedding locali o personalizzati, imposta embedding.dimensions sulla dimensione del vettore
riportata da quel modello.
Il Plugin viene caricato ma non appaiono memorie
Controlla cheplugins.slots.memory punti a memory-lancedb, quindi esegui:
autoCapture è disabilitato, il Plugin richiamerà le memorie esistenti ma non
ne archivierà automaticamente di nuove. Usa lo strumento memory_store o abilita
autoCapture se vuoi l’acquisizione automatica.