Le normative sull'intelligenza artificiale sono in rapida evoluzione a livello globale. Cina, Europa e Stati Uniti stanno adottando approcci diversi, sollevando una questione fondamentale: è più efficace regolamentare i modelli di AI o il loro utilizzo?
Il fallimento della regolamentazione incentrata sui modelli
Tentare di controllare i modelli di AI, ad esempio attraverso licenze o restrizioni sugli open weights, si rivela inefficace. I modelli, una volta rilasciati, si replicano a costo quasi zero, rendendo impossibile impedirne la diffusione. Questo approccio rischia di penalizzare le aziende compliant, mentre gli attori meno scrupolosi aggirano le regole.
Un'alternativa pratica: regolamentare l'uso in base al rischio
Un sistema basato sull'uso classifica le implementazioni in base al rischio e adatta gli obblighi di conseguenza. Ecco un modello pratico:
- Interazione generale con il consumatore: Trasparenza, policy di utilizzo accettabile, meccanismi per segnalare output problematici.
- Assistenza a basso rischio: Semplice informativa, igiene dei dati di base.
- Supporto decisionale a rischio moderato: Valutazione del rischio documentata, supervisione umana, "AI bill of materials" (provenienza del modello, valutazioni chiave, mitigazioni).
- Usi ad alto impatto in contesti critici: Test rigorosi pre-implementazione, monitoraggio continuo, segnalazione di incidenti, autorizzazione basata su performance validate.
- Funzioni pericolose a duplice uso: Limitazione a strutture autorizzate e operatori verificati, divieto di funzionalità il cui scopo primario è illegale.
Chiudere il cerchio nei punti nevralgici
I sistemi basati sull'AI diventano reali quando sono connessi a utenti, denaro, infrastrutture e istituzioni. È qui che i regolatori dovrebbero concentrare i controlli: app store, piattaforme cloud, sistemi di pagamento e assicurazioni. Per gli usi ad alto rischio, è necessario richiedere l'identificazione degli operatori, la limitazione delle funzionalità in base al livello di rischio e la registrazione a prova di manomissione per audit e revisioni post-incidente.
Allineamento con l'UE e la Cina
Questo approccio si allinea con l'EU AI Act, che centra il rischio nel punto di impatto. Tuttavia, differisce per la necessità di garantire la conformità costituzionale negli Stati Uniti, concentrandosi su ciò che gli operatori AI possono fare in contesti sensibili. Si possono riprendere dalla Cina idee pratiche come la provenienza verificabile per i media sintetici e la registrazione dei metodi e dei controlli del rischio per i servizi ad alto rischio.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!