Kestra: 25 milioni di dollari per l'orchestrazione open source di AI e dati

Kestra, la piattaforma francese di orchestrazione open source, ha annunciato di aver completato un round di finanziamento Series A da 25 milioni di dollari. L'operazione è stata guidata da RTP Global, portando il capitale totale raccolto dall'azienda a 36 milioni di dollari. Questo investimento sottolinea la crescente domanda di soluzioni flessibili e controllabili per la gestione di carichi di lavoro complessi.

La piattaforma Kestra si distingue per la sua capacità di orchestrare un'ampia gamma di flussi di lavoro, inclusi quelli relativi a dati, intelligenza artificiale, infrastruttura e processi aziendali. La sua natura open source la rende particolarmente attraente per le organizzazioni che cercano di mantenere il controllo sui propri stack tecnicici e sui dati, un aspetto cruciale nell'attuale panorama digitale.

Crescita esponenziale e impatto sui deployment

Negli ultimi 18 mesi, Kestra ha registrato una crescita impressionante, con i ricavi enterprise che sono aumentati di 25 volte. Questo dato evidenzia una forte adozione della piattaforma da parte delle aziende che necessitano di strumenti robusti per gestire le proprie operazioni. Nel solo 2025, la piattaforma ha eseguito oltre due miliardi di workflow, dimostrando la sua scalabilità e affidabilità in ambienti di produzione.

Per i CTO, i responsabili DevOps e gli architetti di infrastruttura che valutano alternative self-hosted rispetto alle soluzioni cloud, una piattaforma di orchestrazione open source come Kestra offre vantaggi significativi. Permette di definire, eseguire e monitorare pipeline complesse, garantendo al contempo la sovranità dei dati e la conformità normativa, aspetti fondamentali per molti settori, dalle banche alla sanità.

L'importanza dell'orchestrazione in ambienti ibridi e on-premise

L'orchestrazione è un componente critico per la gestione efficiente di architetture distribuite, specialmente quando si tratta di carichi di lavoro AI e Large Language Models (LLM). In un contesto di deployment on-premise o ibrido, avere una piattaforma che possa coordinare le diverse fasi di un processo – dall'ingestione dei dati all'addestramento dei modelli, fino all'inference – è essenziale. Questo approccio consente di ottimizzare l'utilizzo delle risorse hardware, come le GPU, e di gestire il TCO in modo più prevedibile.

Le soluzioni open source, in particolare, offrono la flessibilità necessaria per adattarsi a requisiti infrastrutturali specifici e per integrare sistemi esistenti, evitando il vendor lock-in tipico di alcune offerte cloud. Per chi valuta deployment on-premise, AI-RADAR offre framework analitici su /llm-onpremise per valutare i trade-off tra controllo, costi e complessità operativa, evidenziando come strumenti di orchestrazione possano semplificare queste decisioni.

Prospettive future per l'infrastruttura AI

Il finanziamento di Kestra riflette una tendenza più ampia nel settore tecnicico: l'investimento in strumenti che potenziano le capacità delle aziende di gestire autonomamente le proprie infrastrutture AI e dati. Con l'aumento della complessità dei modelli e dei requisiti di elaborazione, la capacità di orchestrare in modo efficiente i flussi di lavoro diventa un fattore distintivo per l'innovazione.

Questo round di finanziamento permetterà a Kestra di accelerare lo sviluppo della sua piattaforma, consolidando la sua posizione come attore chiave nell'ecosistema dell'orchestrazione open source. La sua crescita dimostra che le soluzioni che offrono controllo, trasparenza e flessibilità sono sempre più apprezzate in un mercato che cerca di bilanciare innovazione e gestione dei rischi.