L'ottimizzazione automatica tramite modelli linguistici di grandi dimensioni (LLM) sta diventando un approccio promettente per supportare i processi decisionali complessi. Un nuovo studio introduce MIND (auto extbf{m}ated opt extbf{i}mization modeli extbf{n}g via a localizable error- extbf{d}riven perspective), un framework di apprendimento guidato dagli errori.
Problematiche attuali
La ricerca evidenzia due limitazioni fondamentali negli approcci esistenti:
- La scarsità di problemi specifici per ogni tipo di errore.
- Le ricompense limitate associate a problemi complessi.
MIND affronta queste limitazioni personalizzando l'intero processo di formazione del modello, dalla sintesi dei dati al post-training. L'approccio si basa sull'osservazione di pattern localizzabili nella propagazione degli errori nei modelli di ottimizzazione. Gli errori tendono a rimanere confinati a segmenti semantici specifici, senza propagarsi all'intera soluzione.
L'approccio MIND
MIND sfrutta la costruzione di un corpus di addestramento focalizzato e ad alta densità e propone una extbf{D}ynamic Supervised extbf{F}ine-Tuning extbf{P}olicy extbf{O}ptimization (DFPO) per affrontare i problemi difficili attraverso un raffinamento localizzato. Gli esperimenti condotti su sei benchmark dimostrano che MIND supera costantemente tutti gli approcci di ottimizzazione automatica più avanzati.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!