La strategia "open-weight" che sfida Silicio Valley
Mentre le aziende di intelligenza artificiale della Silicio Valley seguono un approccio consolidato, mantenendo la propria "ricetta segreta" dietro API proprietarie e monetizzando ogni singola interazione, i principali laboratori AI cinesi hanno intrapreso una strada differente. La loro strategia consiste nel rilasciare i modelli come pacchetti "open-weight" scaricabili, consentendo agli sviluppatori di adattarli ed eseguirli sulla propria infrastruttura hardware. Questo approccio elimina la necessità di negoziare rapporti commerciali con i "gatekeeper" statunitensi, offrendo maggiore flessibilità e controllo.
Questa strategia ha guadagnato terreno dopo che DeepSeek ha reso Open Source il suo modello di ragionamento R1 nel gennaio 2025. Il modello ha dimostrato prestazioni paragonabili ai migliori sistemi americani, a un costo significativamente inferiore. Questo ha evidenziato un rapido restringimento del divario di capacità tra i laboratori statunitensi e cinesi. Oltre alle pure prestazioni, la Cina ha conquistato un vantaggio più sottile ma duraturo: il favore degli sviluppatori, ottenuto offrendo gratuitamente ciò che i concorrenti monetizzano.
Adozione e impatto sul mercato globale
La Cina ha saputo capitalizzare questo slancio. A un anno dal rilascio di DeepSeek, un gruppo di giganti cinesi dell'Open Source, tra cui Z.ai (ex Zhipu), Moonshot, Qwen di Alibaba e MiniMax, sta seguendo lo stesso modello. Tutte queste entità sono impegnate in una corsa per rilasciare modelli sempre più capaci, riducendo il divario con i rivali statunitensi a un ritmo inaspettato.
Questo scenario è particolarmente rilevante in un momento in cui l'entusiasmo iniziale per l'AI sta scemando, e le aziende si stanno concentrando sul Deployment e sull'integrazione effettiva, piuttosto che su progetti pilota. In questo contesto, gli strumenti più economici e personalizzabili tendono a prevalere. La politica di prezzi competitivi e i modelli "open-weight" cinesi permettono agli sviluppatori con budget limitati di sperimentare maggiormente e di adattare i modelli senza richiedere autorizzazioni.
Uno studio condotto da ricercatori del MIT e di Hugging Face ha rivelato che i modelli "open-weight" cinesi hanno rappresentato il 17,1% dei download globali di modelli AI nell'anno terminato ad agosto 2025, superando di poco la quota statunitense del 15,86%. È stata la prima volta che la Cina ha guidato questa metrica. Dati più recenti di Hugging Face mostrano inoltre che i modelli di Alibaba, inclusa la famiglia Qwen, vantano il maggior numero di varianti generate dagli utenti, superando la somma di quelle di Google e Meta.
Sfide e implicazioni per la sovranità dei dati
L'ideale dell'Open Source, tuttavia, si scontra con alcune dure realtà. I modelli cinesi recano l'impronta del regime di moderazione dei contenuti del paese e sono addestrati per evitare output che possano entrare in conflitto con le politiche governative. Inoltre, a febbraio, Anthropic ha accusato diversi laboratori cinesi di aver estratto illecitamente capacità dal suo modello Claude tramite "distillation", un processo che utilizza gli output di un modello per addestrarne un altro. Sebbene questa sia una pratica industriale standard, le principali aziende statunitensi come OpenAI e Anthropic sostengono che le aziende cinesi abbiano utilizzato metodi fraudolenti.
Nonostante le resistenze occidentali, gran parte del Sud Globale sta adottando i modelli cinesi, vedendo nell'Open Source una via verso la sovranità dell'AI. Il programma governativo AI Singapore ha scelto Qwen di Alibaba rispetto a Llama di Meta per costruire il suo ultimo modello regionale. L'anno scorso, la Malesia ha annunciato che il suo ecosistema AI sovrano sarebbe stato basato su DeepSeek. Nel frattempo, fondatori da Nairobi a San Paolo, fino a San Francisco, stanno costruendo le loro soluzioni su queste fondamenta cinesi.
Per le organizzazioni che valutano il Deployment di LLM on-premise, l'adozione di modelli "open-weight" offre un controllo senza precedenti sull'infrastruttura, sulla sicurezza dei dati e sulla personalizzazione. Questo è cruciale per settori con stringenti requisiti di compliance o per ambienti Air-gapped, dove la sovranità dei dati e il TCO a lungo termine sono prioritari rispetto ai costi operativi basati sul consumo tipici del cloud.
Un futuro multipolare per l'intelligenza artificiale
I CEO delle aziende tecniciche statunitensi ritengono che i modelli più avanzati debbano rimanere proprietari, in parte per recuperare gli enormi costi di training e in parte per la preoccupazione che modelli "frontier" potenti possano essere usati come armi. I laboratori cinesi, dal canto loro, non agiscono per puro idealismo: l'Open Source non è solo pubblicità gratuita, ma anche un'astuta soluzione alternativa. Senza accesso ai chip all'avanguardia, soggetti a controlli sulle esportazioni statunitensi, il rilascio aperto dei modelli accelera il ciclo di feedback esterni e contributi che compensa le limitazioni di capacità di calcolo.
Più sviluppatori costruiscono sui modelli, più forte diventa l'ecosistema, come dimostrato da Linux e Android. Questa adozione si traduce naturalmente in utilizzo delle API e, di conseguenza, in entrate. Indipendentemente dalle motivazioni, i modelli Open Source hanno già reso il futuro dell'AI più multipolare di quanto la Silicio Valley si aspettasse. E non c'è modo di tornare indietro.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!