Analisi contestuale con LLM: uno studio su GPT-5
Un recente studio pubblicato su arXiv indaga l'abilitร dei modelli linguistici di grandi dimensioni (LLM) di supportare l'analisi interpretativa del contesto di citazioni (CCA). La ricerca si concentra sull'analisi approfondita di un singolo caso complesso, piuttosto che sull'ampliamento delle etichette tipologiche.
Sensibilitร dei prompt e interpretazioni
Lo studio mette in evidenza la sensibilitร dei prompt come questione metodologica, variando la loro struttura e il loro framing in un design bilanciato 2x3. Utilizzando la nota 6 in Chubin e Moitra (1975) e la ricostruzione di Gilbert (1977) come sonda, รจ stata implementata una pipeline GPT-5 a due stadi: una classificazione superficiale del testo di citazione e un passaggio di aspettativa, seguiti dalla ricostruzione interpretativa cross-document utilizzando i testi completi citanti e citati.
Risultati e implicazioni
Su 90 ricostruzioni, il modello ha prodotto 450 ipotesi distinte. L'analisi ha identificato 21 interpretazioni ricorrenti. La classificazione superficiale di GPT-5 si รจ dimostrata stabile, classificando costantemente la citazione come "supplementare". Nella ricostruzione, il modello genera uno spazio strutturato di alternative plausibili, ma la struttura e gli esempi dei prompt ridistribuiscono l'attenzione e il vocabolario, a volte verso interpretazioni forzate. Lo studio evidenzia opportunitร e rischi nell'utilizzo degli LLM come co-analisti guidati per una CCA ispezionabile e contestabile, dimostrando che la struttura e il framing dei prompt influenzano sistematicamente quali letture e vocabolari plausibili il modello mette in primo piano.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!