Il Contenzioso tra Musk e OpenAI: Missione o Profitto?

La prima settimana del processo che vede contrapposti Elon Musk e OpenAI ha messo in luce profonde divergenze sulla visione e la struttura dell'azienda di intelligenza artificiale. Elon Musk, salito sul banco dei testimoni in un tribunale federale di Oakland, California, ha accusato il CEO di OpenAI, Sam Altman, e il presidente Greg Brockman di averlo ingannato, spingendolo a finanziare una società che, nelle sue intenzioni, doveva rimanere senza scopo di lucro.

Musk ha dichiarato di aver co-fondato OpenAI nel 2015 con l'obiettivo di sviluppare l'intelligenza artificiale a beneficio dell'umanità, non per arricchire i dirigenti. Ha affermato di aver fornito 38 milioni di dollari in finanziamenti essenzialmente gratuiti, che sarebbero poi stati utilizzati per creare un'azienda dal valore stimato di 800 miliardi di dollari. La sua richiesta al tribunale è di rimuovere Altman e Brockman dai loro ruoli e di annullare la ristrutturazione che ha permesso a OpenAI di operare attraverso una filiale a scopo di lucro.

La "Distillazione" dei Modelli: Una Pratica Contesa

Un momento saliente della testimonianza di Musk è stata l'ammissione che la sua azienda di intelligenza artificiale, xAI, sviluppatrice del chatbot Grok, utilizza i modelli di OpenAI per l'addestramento dei propri. Musk ha specificato che xAI "distilla in parte" i modelli di OpenAI, una rivelazione che ha suscitato reazioni in aula.

La distillazione è una tecnica consolidata nel campo dell'intelligenza artificiale, dove un modello AI più piccolo viene addestrato per emulare il comportamento di modelli più grandi e capaci. Questo approccio consente ai modelli più piccoli di operare con maggiore velocità ed efficienza, riducendo i costi computazionali, pur mantenendo prestazioni comparabili. Per le aziende che valutano deployment on-premise, l'ottimizzazione delle risorse tramite tecniche come la distillazione è cruciale per massimizzare il throughput e gestire i vincoli di VRAM e potenza di calcolo, influenzando direttamente il TCO. Tuttavia, OpenAI e altre aziende del settore hanno espresso riserve su questa pratica, accusando alcuni concorrenti di violare i termini di servizio, come nel caso di DeepSeek, o bloccando l'accesso ai propri servizi, come accaduto tra Anthropic e OpenAI.

Sicurezza AI e Dinamiche Competitive

Il dibattito in tribunale ha toccato anche il tema della sicurezza dell'AI, con Musk che si è presentato come un sostenitore di lunga data. Ha affermato di aver co-fondato OpenAI per creare un "contrappeso a Google", all'epoca leader nella corsa all'AI, e ha paventato scenari apocalittici in cui l'AI potrebbe "distruggerci tutti".

L'avvocato di OpenAI, William Savitt, ha contestato la narrazione di Musk, sostenendo che il suo vero intento fosse quello di minare un concorrente. Savitt ha evidenziato come xAI abbia citato in giudizio lo stato del Colorado per una legge sull'AI volta a prevenire la discriminazione algoritmica, e ha sollevato questioni sul reclutamento di dipendenti di OpenAI da parte delle aziende di Musk. La giudice Yvonne Gonzalez Rogers ha richiamato le parti, sottolineando che il processo non riguardava la questione se l'intelligenza artificiale avesse danneggiato l'umanità, ma piuttosto le dinamiche contrattuali e competitive tra le parti.

Prospettive Future e Implicazioni per il Settore

Le implicazioni di questo processo sono significative per il futuro del settore degli LLM. L'esito potrebbe influenzare la corsa di OpenAI verso una potenziale IPO con una valutazione che si avvicina a 1 trilione di dollari. Nel frattempo, xAI è attesa per una quotazione in borsa, come parte della società missilistica di Musk, SpaceX, già a giugno, con una valutazione target di 1,75 trilioni di dollari.

La contesa legale evidenzia le tensioni intrinseche tra la missione etica e lo sviluppo commerciale nell'ambito dell'intelligenza artificiale. Per i decision-maker che valutano l'adozione e il deployment di LLM, questo scenario sottolinea l'importanza di considerare non solo le capacità tecniche dei modelli, ma anche il contesto strategico, legale ed etico in cui operano i principali attori del mercato. La prossima settimana sono attese le testimonianze di Stuart Russell, informatico di UC Berkeley, sulla sicurezza dell'AI, e di Greg Brockman, co-fondatore di OpenAI.