Introduzione
I grafici neurali locali (GNN) sono diventati un paradigma dominante per l'apprendimento su dati strutturati in forma di graph, grazie alla loro capacità di sfruttare contemporaneamente le caratteristiche dei nodi e la topologia della rete. Tuttavia, questa combinazione introduce una debolezza critica: perturbazioni o rumori nella struttura o nelle caratteristiche possono essere amplificati attraverso il passaggio dei messaggi, rendendo i GNN vulnerabili a attacchi ad adversari e connessioni spure.
Problema di base
La vulnerabilità dei GNN ai perturbazioni è un problema complesso che richiede una soluzione approfondita. I GNN sono progettati per sfruttare la topologia della rete per migliorare l'apprendimento, ma questo stesso meccanismo può essere utilizzato anche per creare connessioni spure o perturbazioni che possono compromettere la stabilità del modello.
Proposta di soluzione
In questo lavoro, presentiamo un framework di prunatura che utilizza l'evaluazione della robustezza adversaria per identificare e rimuovere componenti fragili o dannosi del grafico. Utilizzando punteggi di robustezza come guida, la nostra metodologia seleziona unilateralmente le aree dei grafi più probabili a degradare la fidelità del modello, ottenendo rappresentazioni grafiche più pulite e più resilienti.
Esperimenti
Abbiamo condotto un'analisi approfondita di tre architetture representative di GNN e abbiamo eseguito una serie di esperimenti su benchmark. I risultati mostrano che la nostra proposta può migliorare significativamente la capacità di difesa dei GNN nel regime di alta perturbazione.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!