Huawei ha presentato al Mobile World Congress (MWC) 2026 una nuova piattaforma di calcolo dedicata all'intelligenza artificiale, pensata per aiutare le aziende a sviluppare e gestire l'infrastruttura di calcolo necessaria per i servizi AI.

Tempi di realizzazione ridotti per i data center

Uno dei principali ostacoli all'adozione dell'AI รจ la realizzazione dell'hardware e dello spazio nei data center necessari per supportare carichi di lavoro computazionali intensi. La piattaforma di Huawei mira a ridurre i tempi di realizzazione combinando la progettazione con il supporto alla costruzione in loco. L'azienda afferma di utilizzare strumenti di simulazione per l'efficienza energetica, il raffreddamento a liquido e la pianificazione del cablaggio, riducendo cosรฌ il lavoro fisico necessario in loco. Questo potrebbe ridurre il ciclo di rinnovamento tipico a quattro-sei mesi.

Strumenti per la configurazione e le prestazioni dei cluster

La soluzione di Huawei include una maggiore integrazione dei cluster di calcolo. L'azienda afferma che il suo processo di deployment puรฒ far funzionare un cluster di grandi dimensioni in circa 15 giorni una volta che l'hardware รจ installato. Huawei fornisce anche strumenti per la messa a punto e l'ottimizzazione delle prestazioni, progettati per aiutare i modelli AI a funzionare in modo piรน efficiente all'interno del sistema.

Adattamento dei modelli e conoscenza degli esperti

La piattaforma si occupa anche dell'"adattamento dei modelli", ovvero del processo di preparazione di un modello AI standard per farlo funzionare bene su hardware specifici o all'interno di un particolare ambiente aziendale. Huawei afferma di aver adattato piรน di 150 modelli AI tradizionali, coprendo circa il 90% dei casi d'uso aziendali comuni, e di aver memorizzato il know-how di questi test in una knowledge base di oltre 10.000 casi di esperti. Tale database viene utilizzato per guidare nuovi deployment e ridurre il lavoro di prova ed errore.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.