Costruire una costituzione epistemica per l'IA
I modelli linguistici di grandi dimensioni (LLM) stanno evolvendo rapidamente, assumendo il ruolo di "ragionatori artificiali" capaci di valutare argomentazioni ed esprimere giudizi. Tuttavia, i processi attraverso cui questi modelli formano le proprie "credenze" sono spesso opachi e governati da politiche implicite.
Un nuovo studio propone di affrontare questa sfida attraverso una "costituzione epistemica" per l'IA. L'idea è di definire un insieme di meta-norme esplicite e contestabili che regolino il modo in cui i sistemi di IA formano ed esprimono le proprie opinioni. Questo approccio mira a garantire maggiore trasparenza e responsabilità nei processi decisionali dell'IA.
Affrontare i pregiudizi nell'attribuzione delle fonti
La ricerca evidenzia come i modelli più avanzati tendano a penalizzare argomentazioni attribuite a fonti la cui posizione ideologica attesa è in conflitto con il contenuto dell'argomentazione stessa. Questo "source attribution bias" dimostra che i modelli applicano una forma di coerenza identità-posizione, che può portare a distorsioni.
Lo studio distingue due approcci costituzionali: uno platonico, che privilegia la correttezza formale e l'indipendenza dalla fonte, e uno liberale, che promuove norme procedurali per proteggere le condizioni per un'indagine collettiva, consentendo al contempo un'attenzione alla fonte basata sulla vigilanza epistemica. L'articolo sostiene l'approccio liberale, delineando otto principi e quattro orientamenti fondamentali.
Governance dell'IA: trasparenza e contestabilità
La proposta di una costituzione epistemica per l'IA sottolinea la necessità di una governance esplicita e contestabile, simile a quella che ci si aspetta per l'etica dell'IA. Questo approccio mira a promuovere un'IA più responsabile e allineata ai valori umani.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!