AriadneMem è un nuovo sistema di memoria progettato per migliorare le capacità degli agenti LLM (Large Language Model) nella gestione di conversazioni a lungo termine. La sfida principale affrontata è quella di mantenere l'accuratezza delle informazioni in contesti con budget di token limitati.
Problematiche esistenti
I sistemi di memoria attuali faticano a gestire due problemi persistenti: l'evidenza disconnessa, dove le risposte richiedono il collegamento di fatti distribuiti nel tempo, e gli aggiornamenti di stato, dove le informazioni in evoluzione creano conflitti con i log statici più vecchi.
Architettura di AriadneMem
AriadneMem adotta un approccio a due fasi:
- Fase di costruzione offline: questa fase utilizza il "gating" entropy-aware per filtrare il rumore e i messaggi a bassa informazione. Applica inoltre un "coarsening" conflict-aware per unire i duplicati statici, preservando le transizioni di stato come archi temporali.
- Fase di ragionamento online: invece di pianificazioni iterative costose, AriadneMem esegue un "bridge discovery" algoritmico per ricostruire i percorsi logici mancanti tra i fatti recuperati, seguito da una sintesi topology-aware single-call.
Risultati sperimentali
I test con GPT-4o su LoCoMo hanno dimostrato che AriadneMem migliora il Multi-Hop F1 del 15.2% e l'Average F1 del 9.0% rispetto alle baseline esistenti. Un vantaggio significativo è la riduzione del runtime totale del 77.8%, utilizzando solo 497 token di contesto. Il codice è disponibile su GitHub.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!