Topic / Trend Rising

Progressi nei Modelli Linguistici di Grandi Dimensioni (LLM)

Si stanno compiendo progressi significativi nei modelli linguistici di grandi dimensioni (LLM), tra cui nuove architetture, tecniche di addestramento e applicazioni. La ricerca si concentra sul miglioramento dell'efficienza, sulla riduzione dei requisiti di memoria e sul miglioramento delle prestazioni in domini specifici.

Detected: 2026-01-19 · Updated: 2026-01-19

Articoli Correlati

2026-01-19 LocalLLaMA

JARVIS: Aggiornamenti sullo sviluppo di un agente LLM

Un utente di Reddit ha condiviso un aggiornamento sullo sviluppo di JARVIS, un agente basato su modelli linguistici di grandi dimensioni (LLM). Il post originale include un link a un video dimostrativo del progetto. Lo sviluppo di agenti LLM rapprese...

2026-01-19 LocalLLaMA

Sviluppo LLM in locale: ha ancora senso con GPU da 16GB?

Un utente con una GPU Nvidia RTX 5070 Ti da 16GB si interroga sull'efficacia dello sviluppo di modelli linguistici di grandi dimensioni (LLM) in locale. L'esperienza con Kilo code e Qwen 2.5 coder 7B tramite Ollama ha evidenziato problemi con la gest...

#Hardware #LLM On-Premise
2026-01-19 ArXiv cs.CL

Agent conversazionali: la concisione ne riduce la competenza?

Un nuovo studio analizza gli effetti collaterali inattesi derivanti dall'uso di specifiche caratteristiche stilistiche nei prompt per agent conversazionali basati su modelli linguistici di grandi dimensioni (LLM). La ricerca rivela come la richiesta ...

#Fine-Tuning
2026-01-19 ArXiv cs.CL

BYOL: un framework per LLM su misura per lingue a basse risorse

Un nuovo studio introduce BYOL, un framework per migliorare le prestazioni dei modelli linguistici di grandi dimensioni (LLM) in lingue con scarsa presenza digitale. BYOL classifica le lingue in base alle risorse disponibili e adatta le tecniche di t...

2026-01-19 ArXiv cs.AI

LLM: come valutano l'affidabilità delle informazioni online?

I modelli linguistici di grandi dimensioni (LLM) stanno diventando sempre più importanti nei sistemi di ricerca e raccomandazione online. Una nuova ricerca analizza come questi modelli codificano l'affidabilità percepita nelle narrazioni web, rivelan...

#Fine-Tuning
2026-01-19 LocalLLaMA

cuda-nn: motore di inferenza MoE in Rust/CUDA senza PyTorch

È stato presentato cuda-nn, un motore di inferenza MoE (Mixture of Experts) sviluppato in Rust, Go e CUDA. Questo progetto open source si distingue per la sua capacità di gestire modelli con 6,9 miliardi di parametri senza l'ausilio di PyTorch, grazi...

2026-01-19 LocalLLaMA

DetLLM: strumento per garantire inferenza deterministica negli LLM

Uno sviluppatore ha creato DetLLM per risolvere il problema della non riproducibilità nell'inferenza degli LLM. Lo strumento verifica la ripetibilità a livello di token, genera un report e crea un pacchetto di riproduzione minimo per ogni esecuzione,...

2026-01-19 LocalLLaMA

SLM e Prompt: come superare i modelli linguistici più grandi?

Un utente si chiede come ottenere il massimo dai modelli linguistici di dimensioni ridotte (SLM), in particolare quando sono ottimizzati per un argomento specifico. La sfida è che i prompt tradizionali, efficaci con i modelli linguistici di grandi di...

2026-01-19 LocalLLaMA

GFN v2.5.0: inferenza O(1) e sequenze extrapolate 500x

Presentata la versione 2.5.0 di GFN (Geodesic Flow Networks), un'architettura che riformula il sequence modeling come dinamica di particelle. GFN offre inferenza O(1) e stabilità grazie all'integrazione simplettica. Dimostrata la generalizzazione zer...

#Fine-Tuning
2026-01-18 LocalLLaMA

Analisi di un milione di email per l'ingegneria del contesto

Un team ha elaborato oltre un milione di email per trasformarle in contesto strutturato per agenti di intelligenza artificiale. L'analisi ha rivelato che la ricostruzione dei thread è complessa, gli allegati sono fondamentali, le conversazioni multil...

2026-01-18 LocalLLaMA

Inferenza LLM più veloce con lo Speculative Decoding

Lo Speculative Decoding promette un'accelerazione da 2x a 3x nell'inferenza dei modelli linguistici di grandi dimensioni (LLM) senza sacrificare la precisione. Sfruttando un modello più piccolo per generare bozze di token, e verificandole poi in para...

#Hardware #Fine-Tuning
2026-01-17 LocalLLaMA

Ripetere i prompt migliora le prestazioni dei modelli linguistici

Una nuova ricerca mostra che ripetere i prompt può migliorare significativamente le prestazioni dei modelli linguistici di grandi dimensioni (LLM) in compiti che non richiedono ragionamento complesso. L'approccio non incide sulla latenza e potrebbe d...

2026-01-16 ArXiv cs.LG

I Transformer svelati: circuiti polinomiali tropicali

Una nuova ricerca rivela che il meccanismo di self-attention dei Transformer, in condizioni di alta confidenza, opera nell'algebra tropicale (max-plus). Questo studio trasforma l'attenzione softmax in un prodotto di matrici tropicali, mostrando come ...

2026-01-15 TechWire Asia

DeepSeek aggira i limiti dei chip per addestrare modelli AI più grandi

La startup cinese DeepSeek ha sviluppato una nuova tecnica, chiamata "Engram", per addestrare modelli di intelligenza artificiale di grandi dimensioni, superando le limitazioni imposte dalle restrizioni statunitensi sull'esportazione di chip avanzati...

#Hardware
2026-01-15 ArXiv cs.LG

SGFM: un nuovo approccio ai modelli generativi ispirato alla fisica

I modelli Spectral Generative Flow Models (SGFM) si propongono come alternativa ai modelli linguistici di grandi dimensioni basati su transformer. Sfruttando la dinamica stocastica vincolata in una base wavelet multiscala, SGFM offre un meccanismo ge...

2026-01-14 ArXiv cs.CL

LLM: nuovo approccio all'etica medica cinese con MedES

Un nuovo studio presenta MedES, un benchmark dinamico per allineare i modelli linguistici di grandi dimensioni (LLM) all'etica medica cinese. Il sistema utilizza un valutatore automatizzato per fornire feedback etico strutturato, migliorando le prest...

#Fine-Tuning
2026-01-14 ArXiv cs.LG

Compressione LLM: nuovo metodo gerarchico per ridurre memoria e calcolo

Un nuovo approccio alla compressione dei modelli linguistici di grandi dimensioni (LLM) promette di ridurre significativamente il fabbisogno di memoria e le risorse di calcolo. La tecnica, denominata Hierarchical Sparse Plus Low-Rank (HSS), combina l...

#Fine-Tuning
2026-01-13 ArXiv cs.CL

Operation Veja: un nuovo approccio per personaggi più realistici

Un nuovo studio identifica i limiti degli attuali modelli di roleplaying, che faticano a riprodurre personaggi credibili. Il framework VEJA (Values, Experiences, Judgments, Abilities) propone un nuovo metodo di training basato su dati curati manualme...

#Fine-Tuning #RAG
2026-01-12 TechCrunch AI

Anthropic Cowork: Claude sviluppa codice senza programmare

Anthropic ha presentato Cowork, una nuova funzionalità integrata nell'app desktop di Claude. Cowork permette agli utenti di designare cartelle specifiche dove Claude può leggere o modificare file, ricevendo istruzioni tramite la consueta interfaccia ...

← Torna ai Topic