I grafici attribuiti sono una forma di rappresentazione dei dati in cui i nodi e le aree contengono informazioni testuali ricche. Tuttavia, il compito di rispondere a domande su questi grafici è un grande sfida, poiché richiede l'uso delle informazioni strutturate all'interno del grafico insieme alle informazioni non strutturate contenute nei testi. Nonostante i modelli linguistici grandi (LLM) abbiano raggiunto notevoli progressi nella comprensione del linguaggio naturale, il loro utilizzo diretto per ragionare su grafici attribuiti rimane limitato. Le metodologie di ricontestualizzazione rafforzate che operano in modo esclusivo sul testo spesso trattano i passaggi come unità isolate, ignorando la struttura interconnessa del grafico. Al contrario, le metodologie di ragionamento Grafico Attribuito (RAG) basate su grafici che serializzano grandi sottografici in lunghe sequenze testuali rapidamente diventano infeasibili a causa delle limitazioni dello spazio contesto degli LLM, portando a una ragione frammentata e una precisione ridotta. Per superare questi limiti, si presenta Graph-O1, un framework agente di RAG che consente agli LLM di condurre una ragionamento interattivo per passo su passo sul grafico. L'approccio integra la ricerca al caso a Monte Carlo (MCTS) con l'insegnamento fine-all-endo (end-to-end learning), permettendo all'algoritmo di selezionare e recuperare solo i componenti dei sottografici più informativi. La procedura di ragionamento è formulata come un'interazione multi-turn tra l'agente e l'ambiente grafico, utilizzando una meccanica di ricompensa unificata. Le prove estensive sui diversi LLM hanno dimostrato che Graph-O1 supera costantemente le basi dei sistemi di prova in corso, producendo risposte più accurate, affidabili e interpretabili.
📁 LLM
AI generated
Introducing Graph-O1: un nuovo modello di ragionamento per grafici attribuiti
Vuoi approfondire? Leggi l'articolo completo dalla fonte:
📖 VAI ALLA FONTE ORIGINALE
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!