Featherless.ai ottiene 20 milioni di dollari per l'AI open source

Featherless.ai, una piattaforma specializzata nell'esecuzione di modelli di intelligenza artificiale open source, ha annunciato di aver ottenuto un finanziamento di Serie A pari a 20 milioni di dollari. Questo capitale è destinato a supportare l'espansione della sua offerta, fornendo alle aziende un percorso concreto verso una maggiore indipendenza nell'ambito dell'AI. Il round di investimento è stato co-guidato da AMD Ventures e Airbus Ventures, con la partecipazione di BMW i Ventures, Kickstart Ventures, Panache Ventures e Wavemaker Ventures.

La piattaforma di Featherless.ai si posiziona come una soluzione di inference serverless, con l'obiettivo ambizioso di rendere tutti i modelli di AI disponibili per questo tipo di Deployment. L'azienda si propone come un'alternativa pronta per la produzione rispetto agli ambienti di calcolo proprietari, basando la sua tecnicia su una ricerca approfondita. Il team fondatore è noto per aver sviluppato RWKV, un'architettura open source innovativa progettata per sfidare il predominio tradizionale dei Transformer.

Un'alternativa ai "walled garden" dell'AI

Attualmente riconosciuta come il partner di inference di Hugging Face con la crescita più rapida, Featherless.ai supporta oltre 30.000 modelli open source che spaziano dal linguaggio alla visione e all'audio. Questa vasta compatibilità consente agli sviluppatori di effettuare il Deployment di soluzioni AI di livello produttivo in modo quasi istantaneo. La piattaforma si distingue per essere uno strato neutrale per l'AI, non allineato con alcun hyperscaler, produttore di chip o ecosistema proprietario.

Un aspetto cruciale della missione di Featherless.ai è la sovranità dei dati e la diversità hardware. L'azienda ospita la sua infrastruttura principale negli Stati Uniti e nell'Unione Europea e opera con un team globale distribuito tra Canada, Europa, Stati Uniti, Singapore e Australia. Questa strategia risponde a una domanda crescente di AI sovrana, che rispetti i confini giurisdizionali e le normative sulla privacy dei dati. Attraverso una collaborazione strategica con AMD, Featherless.ai garantisce che i modelli open source più diffusi a livello mondiale possano essere eseguiti nativamente su AMD ROCm. Questo offre un'alternativa competitiva e verificabile ai sistemi hardware proprietari, garantendo alle aziende un vantaggio strutturale in termini di costi. L'azienda mira inoltre a proteggere il settore dai rischi di monopoli nell'AI, assicurando che i modelli all'avanguardia rimangano accessibili al di fuori dei "walled garden" proprietari, promuovendo così una maggiore flessibilità creativa per gli sviluppatori.

La visione di un'AI "posseduta", non "affittata"

Eugene Cheah, CEO e co-fondatore di Featherless.ai, ha sottolineato come la concentrazione del controllo dell'intero stack tecnicico nelle mani di pochi attori dominanti possa soffocare la concorrenza e limitare l'innovazione. "Stiamo costruendo l'infrastruttura che rende l'AI open source pratica e affidabile su larga scala, garantendo che le aziende possano costruire su una base che possiedono realmente, piuttosto che su una che si limitano ad affittare", ha dichiarato Cheah. Ha inoltre aggiunto che questo investimento segna un punto di svolta nel mercato dell'AI, passando da una prima fase dominata da ecosistemi proprietari e chiusi a una seconda fase in cui le aziende possono possedere ed eseguire i propri modelli senza essere vincolate a un singolo provider cloud o a uno stack tecnicico ristretto.

Sagi Paz, Head di AMD Ventures, ha commentato: "Featherless.ai è all'avanguardia in una nuova fase critica dello sviluppo dell'industria dell'AI. Fornendo una solida base per l'AI open source, contribuisce ad espandere l'accesso e a sostenere un ecosistema più competitivo e diversificato." Kasper Sage, Managing Partner di BMW i Ventures, ha evidenziato come, con l'accelerazione dell'adozione dell'AI, le aziende desiderino un maggiore controllo su performance, costi e localizzazione dei propri dati. "Featherless.ai sta rendendo i principali modelli aperti pronti per la produzione su larga scala. La capacità di utilizzare una varietà di modelli diversi è fondamentale per i futuri casi d'uso dell'AI aziendale", ha affermato Sage. Per le aziende che valutano Deployment on-premise, la possibilità di mantenere il controllo su performance, costi e localizzazione dei dati rappresenta un fattore critico. Piattaforme come Featherless.ai si inseriscono in questo contesto, offrendo un'opzione per mitigare i rischi di vendor lock-in e ottimizzare il TCO, un aspetto che AI-RADAR esplora in dettaglio nei suoi framework analitici su /llm-onpremise.

Prospettive future e impatto sul TCO

Il capitale raccolto sarà impiegato da Featherless.ai per scalare la sua infrastruttura globale, lanciare un marketplace dedicato a modelli aperti specializzati e approfondire l'integrazione tecnica con diverse architetture hardware. Questi sforzi sono volti a continuare a ridurre il costo dell'Inference AI, un fattore chiave per l'adozione su vasta scala. L'enfasi sulla diversità hardware e sull'ottimizzazione dei costi è particolarmente rilevante per le organizzazioni che cercano di massimizzare il valore dei loro investimenti in AI, bilanciando le esigenze di performance con quelle di budget. La strategia di Featherless.ai si allinea con la crescente domanda di soluzioni AI che offrano flessibilità, controllo e trasparenza, elementi fondamentali per le decisioni di Deployment strategiche nel panorama tecnicico attuale.