Hacker statali potenziano gli attacchi cyber con l'AI

Gruppi di hacker supportati da stati nazionali stanno sfruttando l'intelligenza artificiale per accelerare e migliorare gli attacchi cyber. Secondo un report del Threat Intelligence Group (GTIG) di Google, attori provenienti da Iran, Corea del Nord, Cina e Russia stanno utilizzando modelli come Gemini di Google per affinare campagne di phishing e sviluppare malware più sofisticato.

Il report trimestrale AI Threat Tracker rivela come questi gruppi abbiano integrato l'AI in diverse fasi del ciclo di attacco, ottenendo significativi incrementi di produttività in attività di ricognizione, social engineering e sviluppo di malware.

"Per gli attori statali, i modelli linguistici di grandi dimensioni (LLM) sono diventati strumenti essenziali per la ricerca tecnica, l'individuazione di obiettivi e la rapida generazione di esche di phishing," affermano i ricercatori del GTIG nel report.

Ricognizione potenziata dall'AI

Il gruppo iraniano APT42 ha utilizzato Gemini per migliorare le operazioni di ricognizione e social engineering mirate. Il gruppo ha sfruttato il modello AI per identificare indirizzi email ufficiali di specifiche entità e per condurre ricerche volte a stabilire pretesti credibili per avvicinare i bersagli. Inserendo la biografia di un bersaglio in Gemini, APT42 ha creato personaggi e scenari progettati per sollecitare l'interazione. Il gruppo ha anche utilizzato l'AI per tradurre tra le lingue e comprendere meglio le frasi non native, capacità che aiutano gli hacker statali a superare i tradizionali segnali di allarme del phishing, come la grammatica scadente o la sintassi goffa.

Il gruppo nordcoreano UNC2970, specializzato nel prendere di mira il settore della difesa e nell'imitare i selezionatori aziendali, ha utilizzato Gemini per sintetizzare informazioni open source e profilare obiettivi di alto valore. La ricognizione del gruppo includeva la ricerca di informazioni su importanti società di cybersecurity e difesa, la mappatura di specifici ruoli tecnici e la raccolta di informazioni salariali.

Aumentano gli attacchi di estrazione di modelli

Oltre all'uso operativo, Google DeepMind e GTIG hanno identificato un aumento dei tentativi di estrazione di modelli, noti anche come "attacchi di distillazione", volti a rubare la proprietà intellettuale dai modelli AI. Una campagna mirata alle capacità di ragionamento di Gemini ha coinvolto oltre 100.000 prompt progettati per costringere il modello a fornire processi di ragionamento completi. L'ampiezza delle domande suggeriva un tentativo di replicare la capacità di ragionamento di Gemini in lingue diverse dall'inglese in varie attività.

Malware integrato con l'AI

GTIG ha osservato campioni di malware, identificati come HONESTCUE, che utilizzano l'API di Gemini per esternalizzare la generazione di funzionalità. Il malware è progettato per minare il rilevamento tradizionale basato sulla rete e l'analisi statica attraverso un approccio di offuscamento a più livelli. HONESTCUE funziona come un framework di download e avvio che invia prompt tramite l'API di Gemini e riceve codice sorgente C# come risposta. La fase secondaria senza file compila ed esegue i payload direttamente in memoria, senza lasciare artefatti sul disco.

Separatamente, GTIG ha identificato COINBAIT, un kit di phishing la cui costruzione è stata probabilmente accelerata dagli strumenti di generazione di codice AI. Il kit, che si maschera da un importante exchange di criptovalute per la raccolta di credenziali, è stato costruito utilizzando la piattaforma Lovable AI.

Abuso di piattaforme di chat AI

In una nuova campagna di social engineering osservata per la prima volta nel dicembre 2025, Google ha visto attori delle minacce abusare delle funzionalità di condivisione pubblica dei servizi di AI generativa, tra cui Gemini, ChatGPT, Copilot, DeepSeek e Grok, per ospitare contenuti ingannevoli che distribuiscono malware ATOMIC che prende di mira i sistemi macOS.

Gli aggressori hanno manipolato i modelli AI per creare istruzioni dall'aspetto realistico per le comuni attività del computer, incorporando script dannosi della riga di comando come "soluzione". Creando collegamenti condivisibili a queste trascrizioni di chat AI, gli attori delle minacce hanno utilizzato domini affidabili per ospitare la loro fase di attacco iniziale.

Mercato underground fiorente di chiavi API rubate

Le osservazioni di GTIG dei forum underground in lingua inglese e russa indicano una domanda persistente di strumenti e servizi abilitati all'AI. Tuttavia, gli hacker statali e i criminali informatici faticano a sviluppare modelli AI personalizzati, affidandosi invece a prodotti commerciali maturi a cui si accede tramite credenziali rubate. Un toolkit, "Xanthorox", si pubblicizzava come un'AI personalizzata per la generazione autonoma di malware e lo sviluppo di campagne di phishing. L'indagine di GTIG ha rivelato che Xanthorox non era un modello su misura, ma in realtà alimentato da diversi prodotti AI commerciali, tra cui Gemini, a cui si accede tramite chiavi API rubate.

Google ha disabilitato account e risorse associate ad attività dannose e ha rafforzato classificatori e modelli, impedendo loro di fornire assistenza per attacchi simili in futuro.