L'AI punta alle stelle: Orbital e i data center spaziali

L'inarrestabile avanzamento dei Large Language Models (LLM) sta catalizzando una crescita esponenziale dei data center a livello globale, con un conseguente aumento vertiginoso della domanda energetica. Questa pressione sulla rete elettrica spinge gli operatori infrastrutturali a esplorare soluzioni alternative, e alcune di queste visioni si spingono addirittura oltre i confini terrestri.

In questo scenario emerge Orbital Inc., una startup con sede a Los Angeles, che ha recentemente svelato i suoi piani per la costruzione di data center nello spazio. Supportata da Andreessen Horowitz (A16z), Orbital si concentra sulla progettazione di infrastrutture dedicate all'inference di AI, ovvero la fase in cui i modelli addestrati generano i loro output. L'idea centrale è sfruttare l'energia solare, abbondante e "gratuita" nello spazio, per alimentare i carichi di lavoro computazionali di chatbot e agenti, aggirando così le limitazioni energetiche che affliggono le infrastrutture terrestri. Euwyn Poon, fondatore e CEO di Orbital, sottolinea che la capacità sulla Terra è insufficiente e che l'unica direzione possibile è verso l'alto, dove l'energia solare è ampiamente disponibile ma non ancora sfruttata.

Architettura e sfide tecniche di un cloud orbitale

La visione di Orbital si concretizza in una costellazione mesh di piccoli satelliti in orbita terrestre bassa (LEO). Ogni satellite sarà equipaggiato con un rack di server GPU, alimentato da pannelli solari di dimensioni paragonabili a un campo da tennis, affiancati da pannelli di raffreddamento radiativo di analoga grandezza. L'obiettivo a lungo termine è dispiegare fino a 10.000 satelliti, ciascuno delle dimensioni di un frigorifero e con una potenza di circa 100 kilowatt, per creare un cloud distribuito. Questo approccio ricorda iniziative simili, come l'AI Sat Mini proposta da SpaceX.

Il primo banco di prova per Orbital è previsto per il 2027, con il lancio di un prototipo di satellite a bordo di un Falcon 9 di SpaceX. Questa missione sarà cruciale per validare le operazioni delle GPU in orbita e per eseguire i primi carichi di lavoro commerciali di inference. Tuttavia, l'ambizione di Orbital si scontra con le medesime difficoltà che affliggono altri progetti di data center spaziali. Tra queste, la necessità di dissipare ogni watt di energia "gratuita" sotto forma di calore tramite grandi radiatori, la degradazione dell'hardware computazionale dovuta alle radiazioni in LEO e la complessità e i costi elevati della manutenzione regolare nello spazio.

Il focus sull'inference e le implicazioni per il deployment

La strategia distintiva di Orbital risiede nella sua focalizzazione sui carichi di lavoro di inference, distribuiti su una rete di satelliti più piccoli e nodi GPU indipendenti, piuttosto che su sistemi di grandi dimensioni e strettamente accoppiati. Questa scelta progettuale è dettata dalla natura dell'inference, che generalmente richiede meno intensità computazionale per singola richiesta rispetto all'addestramento di modelli AI, il quale si basa su cluster GPU massicci e ottimizzati per un throughput elevato. Limitare la potenza di ciascun satellite a circa 100 kilowatt semplifica notevolmente il design, un aspetto che, secondo Poon, è apprezzato dagli ingegneri.

In questo modello, una richiesta utente viene instradata da un data center terrestre a una stazione di terra, che funge da relè per connettere i satelliti a internet. La richiesta viene poi trasmessa a un satellite, e i satelliti comunicano tra loro tramite collegamenti ottici laser. Una volta elaborata la query da una GPU disponibile, l'output viene reindirizzato all'utente attraverso la rete. Per chi valuta deployment on-premise o soluzioni ibride, l'approccio di Orbital, sebbene estremo, evidenzia la ricerca di architetture innovative per gestire i carichi di lavoro AI, specialmente quando la sovranità dei dati e il controllo sull'infrastruttura sono prioritari. Tuttavia, la latenza di decine di millisecondi per un viaggio di andata e ritorno in LEO rende questa soluzione meno adatta per applicazioni che richiedono risposte in tempo reale, come il trading azionario ad alta frequenza.

Prospettive future e sfide da superare

Euwyn Poon riconosce le significative sfide tecniche intrinseche alla gestione di data center nello spazio. Le radiazioni possono causare errori nelle GPU, la gestione termica è complessa in assenza di aria (richiedendo la dissipazione del calore nello spazio), e la manutenzione è estremamente difficile. Per affrontare questi ostacoli, Orbital sta esplorando soluzioni come il "radiation hardening" per le GPU e l'adozione di circuiti di raffreddamento a liquido basati su ammoniaca, oltre a concentrarsi sulla riduzione del peso dei sistemi per contenere i costi di lancio.

Nonostante l'ambizioso cronoprogramma – finalizzazione dei progetti satellitari entro il 2026, lancio nel 2027 e costruzione di uno stabilimento di produzione a Los Angeles entro il 2028 – la capacità di Orbital di operare in modo affidabile e su larga scala rimane una questione aperta. Esperti del settore, come il fisico ingegnere Andrew Côté, prevedono che i data center spaziali non saranno operativi per almeno altri 10-20 anni. Ciononostante, Poon si dichiara fiducioso negli sforzi ingegneristici della sua azienda per progredire nella risoluzione di queste complesse problematiche, puntando a servire laboratori di modelli di grandi dimensioni come OpenAI e Anthropic, offrendo accesso API diretto per l'acquisto di token o accordi enterprise per spostare la domanda di inference sulla sua rete spaziale.