Un ricercatore ha scoperto una vulnerabilità critica nella supply chain di una piattaforma di condivisione di skill per modelli AI, denominata ClawdHub.

Dettagli della vulnerabilità

L'attacco, simulato a scopo dimostrativo, ha sfruttato diverse debolezze:

  • Download falsificabili: Il numero di download delle skill poteva essere gonfiato tramite una semplice vulnerabilità API, senza autenticazione e con IP spoofing.
  • UI ingannevole: L'interfaccia web nascondeva i file referenziati, rendendo difficile individuare payload sospetti.
  • Permessi illusori: Le richieste di autorizzazione creavano una falsa sensazione di sicurezza, portando molti sviluppatori a cliccare su "Consenti".

Impatto e mitigazione

In sole otto ore, l'attacco ha compromesso 16 sviluppatori in 7 paesi diversi. Il payload utilizzato era innocuo (un semplice ping), ma un attaccante reale avrebbe potuto rubare chiavi SSH, credenziali AWS o interi codebase. Il ricercatore ha segnalato la vulnerabilità e proposto una correzione, ma il problema principale risiede nell'architettura stessa della piattaforma. Questo tipo di attacco ricorda vulnerabilità già viste in librerie JavaScript come ua-parser-js e event-stream, e suggerisce che le stesse problematiche si stanno ripresentando nel mondo degli strumenti per l'intelligenza artificiale.

Per chi valuta deployment on-premise di modelli AI, è fondamentale considerare i trade-off tra controllo e sicurezza della supply chain. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.