Rackspace sta integrando l'intelligenza artificiale (AI) nelle sue operazioni interne, focalizzandosi su sicurezza, modernizzazione e gestione dei servizi. L'azienda evidenzia come l'AI possa ridurre i colli di bottiglia legati a dati disordinati, governance lacunosa e costi elevati dei modelli in produzione.

AI per la sicurezza

Un esempio concreto è RAIDER (Rackspace Advanced Intelligence, Detection and Event Research), una piattaforma back-end personalizzata per il centro di difesa informatica interno. RAIDER unifica l'intelligence sulle minacce con i flussi di lavoro di detection engineering, utilizzando l'AI Security Engine (RAISE) e gli LLM per automatizzare la creazione di regole di rilevamento. Rackspace afferma di aver dimezzato i tempi di sviluppo del rilevamento e ridotto il tempo medio di rilevamento e risposta (MTTD e MTTR).

Modernizzazione con agenti AI

Rackspace utilizza agenti AI per semplificare programmi di engineering complessi, come la modernizzazione di ambienti VMware su AWS. Gli agenti AI gestiscono analisi intensive di dati e attività ripetitive, mentre le decisioni architetturali, di governance e di business rimangono in mano agli umani. Questo approccio mira a evitare che gli ingegneri senior vengano dirottati su progetti di migrazione.

AI per la gestione dei servizi

L'azienda descrive operazioni supportate dall'AI dove il monitoraggio diventa predittivo, gli incidenti di routine vengono gestiti da bot e script di automazione, e la telemetria (insieme ai dati storici) viene utilizzata per individuare pattern e raccomandare correzioni. Rackspace lega questo approccio AIOps all'erogazione di servizi gestiti, suggerendo che l'AI venga utilizzata per ridurre i costi del lavoro nelle pipeline operative.

Considerazioni sull'infrastruttura

Rackspace sottolinea l'importanza di strategia, governance e modelli operativi, specificando la necessità di scegliere l'infrastruttura in base al tipo di carico di lavoro (training, fine-tuning o inference). Molte attività sono relativamente leggere e possono eseguire l'inference localmente sull'hardware esistente.

Sfide e futuro

Rackspace identifica quattro barriere ricorrenti all'adozione dell'AI, tra cui la frammentazione e l'incoerenza dei dati, raccomandando investimenti nell'integrazione e nella gestione dei dati. Per il futuro, prevede che l'economia dell'inference e la governance guideranno le decisioni architetturali, con un'esplorazione "a raffica" nei cloud pubblici e lo spostamento delle attività di inference nei cloud privati per stabilità dei costi e compliance. Per chi valuta deployment on-premise, esistono trade-off che AI-RADAR analizza in dettaglio su /llm-onpremise.

Rackspace considera l'AI come una disciplina operativa, concentrandosi sulla riduzione dei tempi di ciclo nel lavoro ripetibile e sull'individuazione di processi ripetitivi dove è necessario uno stretto controllo a causa della data governance.