Il panorama globale dell'AI: un equilibrio in evoluzione
Il recente rapporto AI Index 2026 della Stanford University, pubblicato questa settimana, offre una valutazione approfondita dello stato attuale dell'intelligenza artificiale. Questo documento di 423 pagine, frutto del lavoro dello Stanford Institute for Human-Centred Artificial Intelligence, esamina la produzione di ricerca, le prestazioni dei modelli, i flussi di investimento, il sentimento pubblico e l'AI responsabile. Tra i risultati più inquietanti, emerge che l'assunto di un duraturo vantaggio statunitense nelle prestazioni dei modelli AI non è più supportato dai dati.
Le scoperte principali sono sorprendenti, ma le intuizioni più rilevanti si trovano nelle sezioni meno trattate, in particolare quelle relative alla sicurezza dell'AI. Qui, il divario tra ciò che i modelli possono fare e la rigorosità con cui vengono valutati per i potenziali danni non si è ridotto, ma si è ampliato, sollevando interrogativi cruciali per le aziende che valutano il deployment di soluzioni LLM on-premise.
Performance dei modelli e vulnerabilità della supply chain
La narrazione che vede gli Stati Uniti in testa nello sviluppo dell'AI necessita di un aggiornamento. Secondo il rapporto, i modelli statunitensi e cinesi si sono alternati al vertice delle prestazioni più volte dall'inizio del 2025. A febbraio 2025, DeepSeek-R1 ha brevemente eguagliato il miglior modello statunitense. A marzo 2026, il modello di punta di Anthropic detiene un vantaggio di appena il 2,7%. Sebbene gli Stati Uniti producano ancora più modelli AI di alto livello (50 nel 2025 contro i 30 della Cina) e detengano brevetti di maggiore impatto, la Cina è ora in testa per volume di pubblicazioni, quota di citazioni e concessioni di brevetti. La sua quota tra i 100 articoli AI più citati è passata da 33 nel 2021 a 41 nel 2024. L'implicazione pratica è chiara: il vantaggio tecnicico statunitense nelle prestazioni dei modelli AI non è più duraturo, ma si sposta con ogni nuovo rilascio significativo.
Il rapporto identifica inoltre una vulnerabilità strutturale critica per l'infrastruttura AI globale. Gli Stati Uniti ospitano 5.427 centri dati, un numero dieci volte superiore a qualsiasi altro paese, eppure una singola azienda, TSMC, produce quasi tutti i chip AI di punta al loro interno. L'intera supply chain globale dell'hardware AI dipende da un'unica fonderia a Taiwan, sebbene un'espansione di TSMC negli Stati Uniti abbia iniziato le operazioni nel 2025. Questa dipendenza monolitica rappresenta un rischio significativo per la resilienza e la sovranità dei dati, aspetti fondamentali per le organizzazioni che considerano deployment self-hosted o air-gapped.
La lacuna nella sicurezza e nella governance dell'AI
Il benchmarking della sicurezza AI non tiene il passo con l'evoluzione delle capacità dei modelli. Mentre quasi tutti gli sviluppatori di modelli all'avanguardia riportano risultati sui benchmark di capacità, lo stesso non si può dire per i benchmark relativi all'AI responsabile. La tabella del rapporto sui benchmark per la sicurezza e l'AI responsabile mostra che la maggior parte delle voci è semplicemente vuota. Solo Claude Opus 4.5 riporta risultati su più di due dei benchmark di AI responsabile monitorati, e solo GPT-5.2 riporta StrongREJECT. Per la maggior parte dei modelli frontier, non vengono riportati dati sui benchmark che misurano equità, sicurezza e agency umana.
Ciò non implica che i laboratori non svolgano lavoro interno sulla sicurezza. Il rapporto riconosce che vengono condotte attività di red-teaming e test di allineamento, ma che questi sforzi sono raramente divulgati utilizzando un set comune di benchmark comparabili esternamente. L'effetto è che il confronto esterno sulle dimensioni della sicurezza AI è di fatto impossibile per la maggior parte dei modelli. Nel frattempo, gli incidenti AI documentati sono aumentati a 362 nel 2025, rispetto ai 233 del 2024. La risposta di governance a livello organizzativo fatica a tenere il passo: la quota di organizzazioni che valutano la propria risposta agli incidenti AI come “eccellente” è scesa dal 28% nel 2024 al 18% nel 2025, mentre la frequenza di incidenti per organizzazione è aumentata. Questa situazione evidenzia un impatto diretto sul TCO per le imprese, che devono affrontare costi crescenti legati alla gestione degli incidenti e alla mancanza di standard per la valutazione della sicurezza.
Percezione pubblica e fiducia nella regolamentazione
L'ansia pubblica aumenta con l'adozione dell'AI. A livello globale, il 59% delle persone intervistate ritiene che i benefici dell'AI superino gli svantaggi, in aumento rispetto al 55% del 2024. Allo stesso tempo, il 52% dichiara che i prodotti e servizi AI li rendono nervosi, un aumento di due punti percentuali in un anno. Entrambe le cifre sono in crescita simultanea, riflettendo un pubblico che utilizza maggiormente l'AI pur diventando più incerto sulla sua direzione.
Il divario tra esperti e pubblico sugli effetti dell'AI sull'occupazione è particolarmente netto: il 73% degli esperti di AI si aspetta un impatto positivo sul modo in cui le persone svolgono il proprio lavoro, rispetto a solo il 23% del pubblico generale. Questi divari sono importanti perché la fiducia del pubblico modella gli esiti normativi, e gli esiti normativi modellano il modo in cui l'AI viene rilasciata. Su questo fronte, il rapporto evidenzia un dato sorprendente: gli Stati Uniti hanno riportato il livello più basso di fiducia nel proprio governo per regolare l'AI in modo responsabile (31%), rispetto a una media globale del 54%. L'UE, invece, gode di maggiore fiducia rispetto a Stati Uniti o Cina nella regolamentazione efficace dell'AI, con una mediana del 53% tra 25 paesi intervistati.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!