Distillazione di conoscenza: sicurezza LLM multilingua a rischio?
Un nuovo studio esplora l'uso della distillazione di conoscenza per migliorare la sicurezza dei modelli linguistici di grandi dimensioni (LLM) in contesti multilingua. I risultati mostrano che l'affinamento su dati "sicuri" può paradossalmente aument...