Apprendimento equo per AI-RAN
Le reti di accesso radio basate su intelligenza artificiale (AI-RAN) promettono di servire un'ampia gamma di utenti con esigenze di apprendimento variabili nel tempo, sfruttando risorse edge condivise. Un nuovo studio introduce un framework di apprendimento multi-task equo online-within-online (OWO-FMTL) per affrontare la sfida di garantire un'inference equa tra diversi utenti.
OWO-FMTL: un approccio innovativo
OWO-FMTL utilizza due cicli di apprendimento: uno esterno per aggiornare il modello condiviso e uno interno per ribilanciare le prioritร degli utenti. L'equitร รจ misurata tramite un parametro di alpha-fairness generalizzato, che consente di bilanciare efficienza ed equitร . Il framework garantisce una diminuzione della disparitร di performance nel tempo e opera con un basso overhead computazionale, rendendolo adatto per il deployment edge.
Performance e vantaggi
I risultati sperimentali, ottenuti su task di apprendimento convessi e deep learning, dimostrano che OWO-FMTL supera le baseline di apprendimento multi-task esistenti in scenari dinamici. Questo approccio offre un meccanismo adattivo e leggero per garantire un'equa distribuzione delle risorse in ambienti AI-RAN.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!