La "Fallacia dell'Astrazione" e i limiti della coscienza AI
Un recente paper di Alexander Lerchner, senior staff scientist presso Google DeepMind, ha riacceso il dibattito sulla natura della coscienza nell'Intelligenza Artificiale. Lerchner sostiene che nessun sistema AI o computazionale potrà mai acquisire una vera coscienza, una conclusione che si pone in netto contrasto con le visioni ottimistiche promosse da alcuni leader del settore. Tra questi, Demis Hassabis, CEO di DeepMind, ha più volte parlato dell'imminente avvento dell'Intelligenza Artificiale Generale (AGI), prevedendo un impatto dieci volte superiore a quello della Rivoluzione Industriale, ma con una velocità decuplicata.
Il paper di Lerchner, intitolato "The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness", mette in luce una divergenza significativa tra le narrazioni aziendali, spesso orientate al marketing, e un'analisi più rigorosa delle capacità dell'AI. Sebbene altri filosofi e ricercatori della coscienza abbiano espresso argomentazioni simili per decenni, l'emergere di questa tesi da un'azienda leader nel campo dell'AI come Google DeepMind aggiunge un nuovo peso alla discussione.
La dipendenza dal "creatore di mappe"
Il fulcro dell'argomentazione di Lerchner risiede nel concetto che qualsiasi sistema AI è intrinsecamente "mapmaker-dependent". Ciò significa che l'AI richiede un agente cognitivo attivo ed esperiente – un essere umano – per "alfabetizzare la fisica continua in un insieme finito di stati significativi". In termini più semplici, è necessaria un'organizzazione preliminare del mondo da parte di una persona per rendere i dati utili al sistema AI. Un esempio lampante è il lavoro di etichettatura delle immagini svolto da lavoratori in diverse parti del mondo, fondamentale per la creazione dei dataset di training.
La "fallacia dell'astrazione" si manifesta nella convinzione errata che, poiché abbiamo organizzato i dati in modo tale da permettere all'AI di manipolare linguaggio, simboli e immagini in maniera che mima un comportamento senziente, essa possa effettivamente raggiungere la coscienza. Lerchner contesta questa idea, affermando che la coscienza è impossibile senza un corpo fisico e le motivazioni intrinseche che ne derivano. Johannes Jäger, biologo sistemico evolutivo e filosofo, sottolinea come gli esseri umani abbiano motivazioni complesse legate alla sopravvivenza – mangiare, respirare, compiere sforzi fisici – che nessun sistema non vivente possiede. Un LLM, ad esempio, è un insieme di pattern su un disco rigido, privo di significato intrinseco; il suo significato deriva da come un agente umano esterno lo ha definito.
Implicazioni pratiche e il dibattito sulla AGI
Le conclusioni di Lerchner, sebbene non nuove per gli esperti di filosofia della coscienza, hanno implicazioni significative per il futuro pratico e commerciale dell'AI. Mark Bishop, professore di cognitive computing alla Goldsmiths, University of London, e Jäger concordano sul fatto che l'argomentazione di Lerchner non sia un punto filosofico astratto, ma piuttosto un "limite invalicabile" per ciò che l'AI può realisticamente realizzare. Questo mette in discussione le previsioni di AGI che promettono impatti dieci volte superiori alla Rivoluzione Industriale.
Lerchner stesso ammette che lo sviluppo di un'Intelligenza Artificiale Generale altamente capace non porta intrinsecamente alla creazione di un "nuovo paziente morale", ma piuttosto al perfezionamento di uno "strumento altamente sofisticato e non senziente". Nonostante ciò, DeepMind continua a operare come se l'AGI fosse imminente, come dimostrato dalla ricerca di scienziati per posizioni "post-AGI". Il paper di Lerchner include una clausola di esclusione di responsabilità che specifica che le conclusioni rappresentano la sua ricerca personale e non riflettono necessariamente la posizione ufficiale di Google. Curiosamente, dopo una richiesta di commento, il branding di Google è stato rimosso dalla versione PDF del paper.
La necessità di un dialogo interdisciplinare
Il dibattito sollevato dal paper di Lerchner evidenzia anche una certa insularità all'interno della comunità di ricerca sull'AI. Jäger critica la mancanza di conoscenza delle origini biologiche e filosofiche di termini come "agency" e "intelligence" da parte di molti ricercatori AI di alto livello. Questa carenza di prospettive interdisciplinari può portare a una "reinvenzione della ruota" e a una comprensione limitata delle implicazioni più ampie delle tecnicie sviluppate.
Emily Bender, professoressa di linguistica all'Università di Washington, osserva che molti "oggetti a forma di paper" provenienti dai laboratori aziendali non passano attraverso un processo di revisione paritaria tradizionale, che potrebbe altrimenti evidenziare la mancanza di citazioni o la replicazione di lavori esistenti. Un mondo migliore, suggerisce Bender, si avrebbe se l'informatica si considerasse una disciplina tra pari, anziché il culmine del raggiungimento umano, specialmente nei laboratori AGI. Per le aziende che valutano deployment on-premise di LLM e sistemi AI, comprendere questi limiti intrinseci è cruciale per definire aspettative realistiche e allocare risorse in modo efficace, evitando investimenti basati su promesse non supportate da un'analisi rigorosa. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi trade-off.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!