Il panorama contraddittorio dell'intelligenza artificiale secondo l'AI Index di Stanford

Ogni anno, l'AI Index di Stanford offre una panoramica essenziale sui progressi e le tendenze chiave nel dinamico settore dell'intelligenza artificiale. L'edizione più recente del rapporto dipinge un framework ricco di dati sorprendenti, che spesso confermano intuizioni già diffuse, ma con il supporto di cifre concrete. Tra i dati più significativi emerge la leadership degli Stati Uniti nell'infrastruttura AI, con ben 5.427 data center attivi, un numero dieci volte superiore a quello di qualsiasi altro paese. Questa cifra evidenzia l'intenso impegno americano nello sviluppo e nel deployment delle tecnicie AI.

Tuttavia, il rapporto mette in luce anche vulnerabilità critiche nella catena di fornitura hardware su cui l'intero settore si basa. Un dato in particolare risalta: la quasi totalità dei chip AI più avanzati è prodotta da un'unica azienda, TSMC, con sede a Taiwan. Questa dipendenza da un singolo produttore rappresenta un "collo di bottiglia" significativo, introducendo un elemento di rischio e complessità per la stabilità e la scalabilità globale delle infrastrutture AI, sia che si tratti di deployment in cloud che on-premise.

La "jagged frontier" e le capacità degli LLM

Il cuore delle contraddizioni evidenziate dall'AI Index risiede nella natura stessa delle capacità attuali degli LLM. Il rapporto descrive una "jagged frontier" (frontiera frastagliata), dove i modelli di intelligenza artificiale mostrano prestazioni eccezionali in alcuni ambiti e lacune sorprendenti in altri. Un esempio emblematico è Google DeepMind con il suo modello Gemini Deep Think, capace di vincere una medaglia d'oro nelle Olimpiadi Internazionali di Matematica, ma che al contempo fatica a leggere correttamente gli orologi analogici.

Questa dicotomia si spiega in parte con la natura dei compiti. I modelli AI eccellono in attività tecniche come la programmazione, dove i risultati sono oggettivamente corretti o errati. Questa chiarezza facilita l'addestramento e il fine-tuning dei modelli, rendendo gli investimenti nello sviluppo di queste capacità particolarmente redditizi per le aziende. Di conseguenza, i produttori di modelli destinano ingenti risorse al miglioramento delle prestazioni in questi specifici domini, portando a progressi "sbalorditivi" per chi utilizza questi strumenti in contesti professionali.

Il divario di percezione tra esperti e pubblico

Le incoerenze nelle prestazioni degli LLM contribuiscono a creare un profondo divario nella percezione dell'AI tra gli esperti del settore e il grande pubblico. Il rapporto di Stanford rivela che il 73% degli esperti statunitensi ha una visione positiva dell'impatto dell'AI sull'occupazione, contro appena il 23% del pubblico, una differenza di ben 50 punti percentuali. Simili discrepanze emergono riguardo all'economia e alla sanità.

Questo scarto è attribuibile alle diverse esperienze d'uso. Gli "esperti" – definiti come ricercatori statunitensi partecipanti a conferenze AI nel 2023 e 2024 – spesso sono "power user" che utilizzano le versioni più avanzate e a pagamento degli LLM per compiti complessi come la programmazione, la matematica o la ricerca. Questi utenti sperimentano la tecnicia al suo massimo potenziale, beneficiando di miglioramenti rapidi e significativi. Al contrario, il pubblico generale, che magari interagisce con versioni gratuite o meno recenti per attività più generiche e aperte, si scontra più frequentemente con i limiti e gli "errori stupidi" dei modelli, alimentando una visione più scettica.

Due realtà dell'AI: implicazioni per il deployment on-premise

In definitiva, l'AI Index di Stanford ci presenta due realtà distinte e parallele dell'intelligenza artificiale. Da un lato, l'AI è notevolmente più avanzata di quanto molti credano, specialmente in ambiti tecnici e specialistici. Dall'altro, rimane ancora carente in molte attività che interessano il grande pubblico, e potrebbe continuare a esserlo per un certo periodo. Questa dualità è cruciale per chiunque debba prendere decisioni strategiche sull'adozione e il deployment dell'AI.

Per le organizzazioni che valutano soluzioni self-hosted o on-premise per i propri carichi di lavoro AI, comprendere la "jagged frontier" è fondamentale. La scelta di modelli e l'investimento in hardware per l'inference o il training devono essere allineati con le specifiche capacità richieste per i casi d'uso aziendali. La dipendenza da un singolo fornitore di chip, come evidenziato dal rapporto, sottolinea inoltre l'importanza di una pianificazione robusta della supply chain e della diversificazione, ove possibile, per mitigare i rischi. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi trade-off, fornendo strumenti per un'analisi approfondita del TCO e delle implicazioni di sovranità dei dati in contesti di deployment on-premise.