Anthropic e l'espansione nel settore finanziario

Anthropic ha annunciato l'introduzione di una serie di template di agenti finanziari, progettati per estendere le capacità del suo servizio Claude AI a una vasta gamma di operazioni nel comparto finanziario. Questa mossa mira a supportare le aziende nell'automazione e nell'ottimizzazione di processi complessi, dalla preparazione di riunioni alla riconciliazione contabile. L'iniziativa arriva in un momento in cui il settore finanziario esplora attivamente le potenzialità degli LLM, pur mantenendo un'elevata attenzione ai rischi intrinseci legati all'accuratezza e alla compliance.

È fondamentale ricordare che, come per qualsiasi sistema di intelligenza artificiale generativa, le risposte generate da Claude possono contenere imprecisioni. Anthropic stessa lo sottolinea, evidenziando la necessità di un approccio cauto, specialmente in un ambito sensibile come quello finanziario, dove l'errore può avere conseguenze significative. L'obiettivo non è la sostituzione completa dell'intervento umano, ma l'amplificazione delle capacità operative attraverso strumenti AI avanzati.

L'architettura degli agenti finanziari

I template di agenti finanziari di Anthropic sono concepiti come architetture di riferimento, ciascuna delle quali integra tre componenti chiave. Le “skills” rappresentano le istruzioni e la conoscenza di dominio necessarie per svolgere un compito specifico. I “connectors” garantiscono un accesso governato ai dati su cui l'attività deve operare, assicurando che le informazioni siano utilizzate in modo sicuro e conforme. Infine, i “subagents” sono modelli Claude aggiuntivi, richiamati dall'agente principale per gestire sotto-compiti specifici, come la selezione di comparabili o la verifica delle metodologie.

La terminologia può talvolta apparire complessa, ma il principio di base è un modello che persegue un obiettivo attraverso un ciclo iterativo, utilizzando risorse come strumenti e dati. Un agente, in questo contesto, è il modello Claude che guida il flusso di controllo verso un obiettivo, decidendo quali strumenti utilizzare e a quali dati accedere. I subagents, invece, sono essenzialmente chiamate API a Claude che impiegano prompt di sistema specializzati, strumenti specifici e un contesto fornito da un sistema di orchestrazione. Funzionano in modo analogo a funzioni all'interno di un programma, gestendo aspetti particolari di un'applicazione.

Applicazioni pratiche e limiti attuali

Anthropic ha presentato una lista diversificata di agenti, tra cui il “Pitch builder”, il “Meeting preparer”, l'“Earnings reviewer”, il “Model builder”, il “Market researcher”, il “Valuation reviewer”, il “General ledger reconciler”, il “Month-end closer”, lo “Statement auditor” e il “KYC screener”. Quest'ultimo, ad esempio, include una skill denominata kyc-rules che definisce come Claude deve applicare le regole KYC/AML (anti-money laundering) di un'azienda a un record di onboarding analizzato. Le regole guidano il modello AI nell'assegnare un rating di rischio, verificare i documenti, citare gli esiti delle regole e produrre un risultato formattato in JSON, utile per i sistemi aziendali riceventi.

Questi agenti possono essere integrati in Claude Cowork e Claude Code come plugin o utilizzati come “cookbook” – ovvero snippet di codice copiabili – per i Claude Managed Agents. Tuttavia, è importante considerare le performance. Il modello Opus 4.7 di Anthropic ha raggiunto un punteggio del 64.37% nel benchmark Finance Agent di Vals AI. Sebbene Anthropic lo definisca “leader del settore”, un tasso di errore simile sarebbe inaccettabile per un operatore umano in ambito finanziario. Questo evidenzia i limiti attuali della tecnicia e la necessità di un approccio ibrido.

Il ruolo della supervisione umana

Data la natura critica delle operazioni finanziarie, Anthropic prevede che gli utenti “rimarranno saldamente nel ciclo decisionale” – revisionando, iterando e approvando il lavoro di Claude prima che venga presentato a un cliente, archiviato o messo in atto. Questa enfasi sulla supervisione umana è cruciale per mitigare i rischi e garantire la responsabilità, un principio fondamentale nel settore contabile e finanziario. Per le organizzazioni che valutano il deployment di LLM in ambienti sensibili, la necessità di un robusto framework di governance e auditability è un fattore determinante.

L'integrazione dell'AI in processi aziendali complessi richiede un'attenta valutazione dei trade-off tra automazione, accuratezza e controllo. Anche se gli agenti AI possono migliorare l'efficienza, la decisione finale e la responsabilità rimangono in capo all'essere umano. Questo approccio ibrido, che combina le capacità computazionali dell'AI con il giudizio e l'esperienza umana, rappresenta la strada più prudente per l'adozione di queste tecnicie in settori ad alta regolamentazione.