Introduzione

I grafici neurali locali (GNN) sono diventati un paradigma dominante per l'apprendimento su dati strutturati in forma di graph, grazie alla loro capacità di sfruttare contemporaneamente le caratteristiche dei nodi e la topologia della rete. Tuttavia, questa combinazione introduce una debolezza critica: perturbazioni o rumori nella struttura o nelle caratteristiche possono essere amplificati attraverso il passaggio dei messaggi, rendendo i GNN vulnerabili a attacchi ad adversari e connessioni spure.

Problema di base

La vulnerabilità dei GNN ai perturbazioni è un problema complesso che richiede una soluzione approfondita. I GNN sono progettati per sfruttare la topologia della rete per migliorare l'apprendimento, ma questo stesso meccanismo può essere utilizzato anche per creare connessioni spure o perturbazioni che possono compromettere la stabilità del modello.

Proposta di soluzione

In questo lavoro, presentiamo un framework di prunatura che utilizza l'evaluazione della robustezza adversaria per identificare e rimuovere componenti fragili o dannosi del grafico. Utilizzando punteggi di robustezza come guida, la nostra metodologia seleziona unilateralmente le aree dei grafi più probabili a degradare la fidelità del modello, ottenendo rappresentazioni grafiche più pulite e più resilienti.

Esperimenti

Abbiamo condotto un'analisi approfondita di tre architetture representative di GNN e abbiamo eseguito una serie di esperimenti su benchmark. I risultati mostrano che la nostra proposta può migliorare significativamente la capacità di difesa dei GNN nel regime di alta perturbazione.