L'ottimizzazione automatica tramite modelli linguistici di grandi dimensioni (LLM) sta diventando un approccio promettente per supportare i processi decisionali complessi. Un nuovo studio introduce MIND (auto extbf{m}ated opt extbf{i}mization modeli extbf{n}g via a localizable error- extbf{d}riven perspective), un framework di apprendimento guidato dagli errori.

Problematiche attuali

La ricerca evidenzia due limitazioni fondamentali negli approcci esistenti:

  • La scarsità di problemi specifici per ogni tipo di errore.
  • Le ricompense limitate associate a problemi complessi.

MIND affronta queste limitazioni personalizzando l'intero processo di formazione del modello, dalla sintesi dei dati al post-training. L'approccio si basa sull'osservazione di pattern localizzabili nella propagazione degli errori nei modelli di ottimizzazione. Gli errori tendono a rimanere confinati a segmenti semantici specifici, senza propagarsi all'intera soluzione.

L'approccio MIND

MIND sfrutta la costruzione di un corpus di addestramento focalizzato e ad alta densità e propone una extbf{D}ynamic Supervised extbf{F}ine-Tuning extbf{P}olicy extbf{O}ptimization (DFPO) per affrontare i problemi difficili attraverso un raffinamento localizzato. Gli esperimenti condotti su sei benchmark dimostrano che MIND supera costantemente tutti gli approcci di ottimizzazione automatica più avanzati.