# Introduzione Gli strumenti di interpretazione dei neuroni sono diventati fondamentali per comprendere il funzionamento delle reti neurali profonde. Tuttavia, pur ottenendo grandi risultati sperimentali, la teoria rimane ancora insoddisfacente. Questo lavoro presenta una prima analisi teorica di due sfide fondamentali: la fedeltà e la stabilità. ## La fedeltà La fedeltà si riferisce alla capacità dell'identificazione dei neuroni di rappresentare in modo fidato il concetto sottostante alla funzione neuronale. Questo è cruciale per garantire che le spiegazioni siano accurate e affidabili. In questo lavoro, analizziamo la possibilità di considerare l'identificazione dei neuroni come processo inverso all'apprendimento automatico. ## La stabilità La stabilità si riferisce alla consistenza delle identificazioni dei neuroni quando utilizzate diverse dataset. Questo è essenziale per garantire che le spiegazioni siano replicabili e affidabili. Proporre una bootstrap ensemble procedure e l'uso del metodo di esplicazione BE (Bootstrap Explanation) ci permette di quantificare la stabilità delle identificazioni. ## Generalization bounds per metriche di somiglianza Deriviamo generalization bounds per metriche di somiglianza comuni, come precisione, AUROC e IoU. Questo ci consente di garantire la fedeltà delle identificazioni. ## Proposta di metodo Proponiamo un nuovo metodo che combina l'analisi teorica con una implementazione pratica per derivare spiegazioni dei neuroni affidabili e stabili. ## Esperimenti I nostri esperimenti su sia dati sintetici che reali validano i risultati teorici e dimostrano la praticità del nostro metodo. Questo lavoro rappresenta un passo importante verso una interpretazione responsabile dei neuroni.