Apprendimento equo per AI-RAN

Le reti di accesso radio basate su intelligenza artificiale (AI-RAN) promettono di servire un'ampia gamma di utenti con esigenze di apprendimento variabili nel tempo, sfruttando risorse edge condivise. Un nuovo studio introduce un framework di apprendimento multi-task equo online-within-online (OWO-FMTL) per affrontare la sfida di garantire un'inference equa tra diversi utenti.

OWO-FMTL: un approccio innovativo

OWO-FMTL utilizza due cicli di apprendimento: uno esterno per aggiornare il modello condiviso e uno interno per ribilanciare le prioritร  degli utenti. L'equitร  รจ misurata tramite un parametro di alpha-fairness generalizzato, che consente di bilanciare efficienza ed equitร . Il framework garantisce una diminuzione della disparitร  di performance nel tempo e opera con un basso overhead computazionale, rendendolo adatto per il deployment edge.

Performance e vantaggi

I risultati sperimentali, ottenuti su task di apprendimento convessi e deep learning, dimostrano che OWO-FMTL supera le baseline di apprendimento multi-task esistenti in scenari dinamici. Questo approccio offre un meccanismo adattivo e leggero per garantire un'equa distribuzione delle risorse in ambienti AI-RAN.