Databricks segnala una transizione nell'adozione dell'AI enterprise verso sistemi "agent", caratterizzati da workflow intelligenti.
La prima ondata di AI generativa aveva promesso trasformazioni significative, ma spesso si è limitata a chatbot isolati e programmi pilota bloccati. Tuttavia, i dati telemetrici di Databricks indicano un cambiamento di rotta.
Sistemi Agent: una nuova era per l'AI
I dati provenienti da oltre 20.000 organizzazioni, tra cui il 60% delle aziende Fortune 500, evidenziano un rapido passaggio ad architetture "agent", in cui i modelli non si limitano a recuperare informazioni, ma pianificano ed eseguono autonomamente i workflow. Tra giugno e ottobre 2025, l'utilizzo di workflow multi-agent sulla piattaforma Databricks è aumentato del 327%, segnalando che l'AI sta diventando una componente fondamentale dell'architettura di sistema.
Il "Supervisor Agent" sta guidando questa crescita. Invece di affidarsi a un singolo modello per gestire ogni richiesta, un supervisor funge da orchestratore, suddividendo le query complesse e delegando i task a sub-agent o strumenti specializzati. Da quando è stato lanciato a luglio 2025, il Supervisor Agent è diventato il principale caso d'uso, rappresentando il 37% dell'utilizzo entro ottobre. Le aziende tecniciche sono in prima linea in questa adozione, sviluppando quasi quattro volte più sistemi multi-agent rispetto a qualsiasi altro settore.
Framework tradizionale sotto pressione
Man mano che gli agent passano dal rispondere alle domande all'eseguire i task, l'infrastruttura dati sottostante deve affrontare nuove esigenze. I database OLTP tradizionali sono stati progettati per interazioni a velocità umana con transazioni prevedibili e modifiche dello schema poco frequenti. I workflow agent invertono queste ipotesi. Gli agent AI generano ora pattern di lettura e scrittura continui e ad alta frequenza, creando e smantellando ambienti a livello di programmazione per testare il codice o eseguire scenari. Due anni fa, gli agent AI creavano solo lo 0,1% dei database; oggi, tale cifra si attesta all'80%. Inoltre, il 97% degli ambienti di test e sviluppo del database sono ora costruiti da agent AI.
Lo standard multi-modello
Il vendor lock-in rimane un rischio persistente per i leader aziendali. I dati indicano che le organizzazioni stanno attivamente mitigando questo problema adottando strategie multi-modello. A partire da ottobre 2025, il 78% delle aziende utilizzava due o più famiglie di Large Language Model (LLM), come ChatGPT, Claude, Llama e Gemini. La percentuale di aziende che utilizzano tre o più famiglie di modelli è aumentata dal 36% al 59% tra agosto e ottobre 2025. Le aziende del retail stanno dettando il ritmo, con l'83% che impiega due o più famiglie di modelli per bilanciare performance e costi. Il report evidenzia che il 96% di tutte le richieste di inference vengono elaborate in tempo reale.
La governance accelera i deployment di AI enterprise
Le organizzazioni che utilizzano strumenti di governance dell'AI mettono in produzione oltre 12 volte più progetti AI rispetto a quelle che non lo fanno. Allo stesso modo, le aziende che utilizzano strumenti di valutazione per testare sistematicamente la qualità del modello ottengono quasi sei volte più deployment di produzione. La governance fornisce le necessarie protezioni, come la definizione di come vengono utilizzati i dati e l'impostazione dei limiti di velocità, il che offre alle parti interessate la sicurezza necessaria per approvare il deployment.
Il valore attuale dell'AI agent risiede nell'automatizzare i task di routine, banali ma necessari. I principali casi d'uso dell'AI variano in base al settore, ma si concentrano sulla risoluzione di specifici problemi aziendali.
Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!