LLM e fiducia online: uno studio

La fiducia percepita è un elemento chiave nel modo in cui gli utenti navigano le informazioni online. Un recente studio si è concentrato sull'analisi di come i modelli linguistici di grandi dimensioni (LLM), sempre più integrati nei sistemi di ricerca, raccomandazione e conversazione, rappresentano questo concetto.

I ricercatori hanno analizzato come LLM istruiti (Llama 3.1 8B, Qwen 2.5 7B, Mistral 7B) codificano l'affidabilità percepita in narrazioni web, utilizzando il dataset PEACE-Reviews, annotato per valutazioni cognitive, emozioni e intenzioni comportamentali. I risultati mostrano che i modelli distinguono sistematicamente i testi ad alta e bassa fiducia, rivelando che gli indizi di fiducia sono implicitamente codificati durante il pre-training.

Implicazioni per l'IA

L'analisi ha evidenziato associazioni significative con valutazioni di equità, certezza e responsabilità, dimensioni centrali nella formazione della fiducia umana online. Questi risultati dimostrano che i moderni LLM interiorizzano segnali di fiducia psicologicamente fondati senza supervisione esplicita, offrendo una base rappresentazionale per progettare sistemi di intelligenza artificiale credibili, trasparenti e affidabili nell'ecosistema web. Il codice e l'appendice sono disponibili su GitHub.