## Introduzione I recenti progressi nella ricerca sui modelli di linguaggio grandi hanno portato a scoperte interessanti sulla loro capacità di eseguire l'inferrenza bayesiana. Gli autori di un nuovo studio hanno dimostrato che i modelli di linguaggio grandi possono raggiungere precisione elevate anche in configurazioni reali. ## Geometria della probabilità I ricercatori hanno scoperto che i modelli di linguaggio grandi mantengono una geometria della probabilità persistente, ovvero una struttura low-dimensional dei valori e delle chiavi che codifica la struttura posteriore. Questa geometria è stata trovata anche in configurazioni reali, come ad esempio con i prompt di domanda. ## Interventi e risultati Gli autori hanno eseguito una serie di interventi sulla geometria della probabilità dei modelli di linguaggio grandi. Hanno scoperto che la rimozione o la perturbazione dell'asse dominante della geometria produce una riduzione significativa della capacità del modello di eseguire l'inferrenza bayesiana. ## Conclusioni I risultati del studio dimostrano che i modelli di linguaggio grandi mantengono la geometria della probabilità persistente anche in configurazioni reali. Questo ha importanti implicazioni per il loro utilizzo nella pratica e apre nuove possibilità per l'ottimizzazione delle prestazioni dei modelli. ## Bibliografia [1] Geometric Scaling of Bayesian Inference in LLMs (arXiv:2512.23752v1 Announce Type: new)