Introduzione
L'apprendimento causale senza supervisione è un compito fondamentale nella scienza dei dati, ma standardi come l'indipendenza statistica spesso falliscono a catturare relazioni causali. Un problema centrale è la identificabilità: disentangolare variabili causali dai dati osservativi senza supervisione, segnali auxiliari o forti bias inductive è impossibile.
In questo lavoro, presentiamo il modello Latent Additive Noise Model Causal Autoencoder (LANCA) come un forte bias inductive per l'apprendimento casuale non supervisivo. Teoricamente, dimostriamo che il constraint ANM non garantisce identificabilità unica nel caso di miscelazione generale, ma risolve la deterministicità componenti per consentire solo trasformazioni admissive dal tipo delle diffeomorfie all'affine.
Metodologicamente, arguiamo che l'encodimento stocastico inherente ai VAEs oscura i residui strutturali richiesti per la scoperta latente causale. LANCA impiega quindi un coditore deterministico Wasserstein Auto-Encoder (WAE) conato con una struttura differenziale ANM Layer.
Questo architetture trasforma l'indipendenza residuale da un supposto passivo in un obiettivo di ottimizzazione esplicito. Empiricamente, LANCA supera le basi di stato dell'arte sui benchmark fisici sintetici (Pendulum, Flow), e sui contesti realistici fotorealistiche (CANDLE), dove dimostra una maggiore robustezza alle correlazioni spuri che emergono da scene ambientali complesse.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!