Verda raccoglie 117 milioni di dollari per espandere la sua infrastruttura AI cloud

Verda, l'azienda di infrastrutture AI cloud con sede a Helsinki, precedentemente nota come DataCrunch, ha annunciato di aver completato un round di finanziamento da 117 milioni di dollari. Questo significativo investimento è destinato a sostenere l'ambizioso piano di espansione dell'azienda, che mira a estendere la propria piattaforma di GPU cloud dai Paesi nordici a mercati chiave come Stati Uniti, Regno Unito e Asia.

Il finanziamento è stato guidato da un consorzio di investitori che include Lifeline Ventures, byFounders, Tesi e Varma, affiancati da un gruppo di istituti di credito nordici. Verda si distingue nel panorama delle startup tecniciche per essere già in attivo di cassa, un indicatore di solidità finanziaria e di un modello di business efficace. L'azienda detiene inoltre lo status di partner preferenziale di Nvidia, una certificazione che sottolinea la sua competenza e l'integrazione profonda con le tecnicie leader nel settore delle GPU. Per supportare la sua crescita, Verda prevede di assumere oltre cento nuovi specialisti nel corso dell'anno.

Il Contesto del Mercato e l'Offerta di Verda

Il mercato delle infrastrutture per l'intelligenza artificiale, in particolare per i Large Language Models (LLM), è in rapida evoluzione e caratterizzato da una domanda crescente di risorse computazionali ad alte prestazioni. Le GPU, con la loro capacità di elaborare carichi di lavoro paralleli, sono diventate il cuore pulsante di questi sistemi, essenziali sia per il training che per l'inference di modelli complessi. La disponibilità e l'accesso a queste risorse rappresentano una sfida cruciale per molte aziende che desiderano sviluppare o implementare soluzioni basate sull'IA.

In questo scenario, fornitori come Verda offrono una soluzione alternativa all'investimento diretto in hardware on-premise. L'azienda si posiziona come un fornitore di infrastruttura AI cloud, consentendo alle imprese di accedere a potenza di calcolo basata su GPU senza dover affrontare i costi iniziali elevati (CapEx) e la complessità della gestione di data center proprietari. La partnership con Nvidia è un elemento distintivo, garantendo l'accesso a tecnicie all'avanguardia e un'ottimizzazione delle performance che può essere cruciale per carichi di lavoro intensivi.

Implicazioni per il Deployment di LLM

La scelta tra un deployment on-premise e l'utilizzo di servizi cloud per i carichi di lavoro AI, inclusi gli LLM, è una decisione strategica che comporta una serie di trade-off. Le soluzioni self-hosted e bare metal offrono un controllo completo sulla sovranità dei dati, sulla sicurezza e sulla personalizzazione dell'hardware, aspetti fondamentali per settori con stringenti requisiti di compliance o per ambienti air-gapped. Tuttavia, queste opzioni richiedono investimenti significativi in termini di TCO, manutenzione e personale specializzato.

L'espansione di Verda in nuovi mercati globali amplia le opzioni per le aziende che preferiscono un modello OpEx, delegando la gestione dell'infrastruttura a un fornitore esterno. Questo può ridurre la complessità operativa e permettere una scalabilità più rapida. Per chi valuta deployment on-premise, l'esistenza di un'offerta cloud robusta come quella di Verda sottolinea la necessità di un'analisi approfondita dei costi e dei benefici, considerando fattori come la latenza, il throughput e la disponibilità di VRAM specifica per i modelli in uso. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi trade-off, fornendo strumenti per un confronto oggettivo tra le diverse strategie di deployment.

Prospettive Future e Crescita

L'iniezione di capitale e i piani di espansione di Verda riflettono la fiducia del mercato nella sua strategia e nella crescente domanda di infrastrutture AI. L'espansione geografica in Stati Uniti, Regno Unito e Asia è strategica, poiché questi mercati rappresentano alcuni dei maggiori hub per l'innovazione e l'adozione dell'intelligenza artificiale. La capacità di Verda di essere già in attivo di cassa prima di questa espansione massiva è un segnale positivo della sua efficienza operativa.

L'impegno ad assumere oltre cento nuovi dipendenti evidenzia non solo la crescita prevista, ma anche la necessità di competenze specialistiche per gestire un'infrastruttura complessa e in espansione. Questo include esperti in architetture di sistema, ingegneria del software, gestione della rete e specialisti di GPU. La crescita di attori come Verda è un indicatore della maturazione del mercato delle infrastrutture AI, che continua a offrire soluzioni diversificate per le esigenze computazionali sempre più intense dei Large Language Models e di altre applicazioni di intelligenza artificiale.