AriadneMem è un nuovo sistema di memoria progettato per migliorare le capacità degli agenti LLM (Large Language Model) nella gestione di conversazioni a lungo termine. La sfida principale affrontata è quella di mantenere l'accuratezza delle informazioni in contesti con budget di token limitati.

Problematiche esistenti

I sistemi di memoria attuali faticano a gestire due problemi persistenti: l'evidenza disconnessa, dove le risposte richiedono il collegamento di fatti distribuiti nel tempo, e gli aggiornamenti di stato, dove le informazioni in evoluzione creano conflitti con i log statici più vecchi.

Architettura di AriadneMem

AriadneMem adotta un approccio a due fasi:

  • Fase di costruzione offline: questa fase utilizza il "gating" entropy-aware per filtrare il rumore e i messaggi a bassa informazione. Applica inoltre un "coarsening" conflict-aware per unire i duplicati statici, preservando le transizioni di stato come archi temporali.
  • Fase di ragionamento online: invece di pianificazioni iterative costose, AriadneMem esegue un "bridge discovery" algoritmico per ricostruire i percorsi logici mancanti tra i fatti recuperati, seguito da una sintesi topology-aware single-call.

Risultati sperimentali

I test con GPT-4o su LoCoMo hanno dimostrato che AriadneMem migliora il Multi-Hop F1 del 15.2% e l'Average F1 del 9.0% rispetto alle baseline esistenti. Un vantaggio significativo è la riduzione del runtime totale del 77.8%, utilizzando solo 497 token di contesto. Il codice è disponibile su GitHub.