Costruire una costituzione epistemica per l'IA

I modelli linguistici di grandi dimensioni (LLM) stanno evolvendo rapidamente, assumendo il ruolo di "ragionatori artificiali" capaci di valutare argomentazioni ed esprimere giudizi. Tuttavia, i processi attraverso cui questi modelli formano le proprie "credenze" sono spesso opachi e governati da politiche implicite.

Un nuovo studio propone di affrontare questa sfida attraverso una "costituzione epistemica" per l'IA. L'idea è di definire un insieme di meta-norme esplicite e contestabili che regolino il modo in cui i sistemi di IA formano ed esprimono le proprie opinioni. Questo approccio mira a garantire maggiore trasparenza e responsabilità nei processi decisionali dell'IA.

Affrontare i pregiudizi nell'attribuzione delle fonti

La ricerca evidenzia come i modelli più avanzati tendano a penalizzare argomentazioni attribuite a fonti la cui posizione ideologica attesa è in conflitto con il contenuto dell'argomentazione stessa. Questo "source attribution bias" dimostra che i modelli applicano una forma di coerenza identità-posizione, che può portare a distorsioni.

Lo studio distingue due approcci costituzionali: uno platonico, che privilegia la correttezza formale e l'indipendenza dalla fonte, e uno liberale, che promuove norme procedurali per proteggere le condizioni per un'indagine collettiva, consentendo al contempo un'attenzione alla fonte basata sulla vigilanza epistemica. L'articolo sostiene l'approccio liberale, delineando otto principi e quattro orientamenti fondamentali.

Governance dell'IA: trasparenza e contestabilità

La proposta di una costituzione epistemica per l'IA sottolinea la necessità di una governance esplicita e contestabile, simile a quella che ci si aspetta per l'etica dell'IA. Questo approccio mira a promuovere un'IA più responsabile e allineata ai valori umani.