Topic / Trend Rising

Sviluppo di Modelli IA e Open Source

Lo sviluppo di nuovi modelli di IA, inclusi LLM e modelli specializzati, sta accelerando, con una crescente enfasi sulle iniziative open source. Ciò include gli sforzi per migliorare l'efficienza, le capacità di ragionamento e l'accessibilità dei modelli di IA.

Detected: 2026-02-04 · Updated: 2026-02-04

Articoli Correlati

2026-02-04 LocalLLaMA

Qwen3-Coder-Next: Quantization NVFP4 disponibile (45GB)

È disponibile una versione quantizzata di Qwen3-Coder-Next in formato NVFP4, con un peso di 45GB. Il modello è stato calibrato utilizzando il dataset ultrachat_200k, con una perdita di accuratezza dell'1.63% nel benchmark MMLU Pro+.

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 LocalLLaMA

ACE-Step-1.5: modello open source per audio generativo

È stato rilasciato ACE-Step-1.5, un modello open source per la generazione di audio con licenza MIT. Le sue performance si avvicinano a quelle di piattaforme commerciali come Suno. Il modello supporta LoRA e offre funzionalità di cover e repainting. ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-03 LocalLLaMA

ACE-Step 1.5: il modello open source che sfida Suno nella generazione musicale

È disponibile ACE-Step 1.5, un modello open source per la generazione di musica. Promette di superare Suno in termini di qualità, generando brani completi in circa 2 secondi su una GPU A100 e funzionando localmente su PC con 4GB di VRAM. Il codice, i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 LocalLLaMA

Qwen3-Coder-Next: nuovo modello linguistico per la programmazione

È stato rilasciato su Hugging Face Qwen3-Coder-Next, un modello linguistico sviluppato per applicazioni di programmazione. La sua disponibilità sulla piattaforma facilita l'accesso e l'integrazione da parte degli sviluppatori. Il modello promette di ...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

GLM-5: il nuovo modello linguistico in arrivo a febbraio

È stato annunciato l'arrivo di GLM-5, un nuovo modello linguistico. La conferma è giunta tramite un post su X (ex Twitter) da Jietang. Ulteriori dettagli sulle capacità e sulle specifiche del modello sono attesi con il rilascio ufficiale.

#Hardware
2026-02-02 ArXiv cs.CL

MrRoPE: Un approccio unificato per estendere la finestra di contesto dei LLM

Un nuovo studio introduce MrRoPE, una formulazione generalizzata per estendere la finestra di contesto dei modelli linguistici di grandi dimensioni (LLM) basata su una prospettiva di conversione del sistema numerico. Questo approccio unifica diverse ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-02 LocalLLaMA

Step-3.5-Flash: performance superiore con meno parametri

Il modello Step-3.5-Flash, con un'architettura a parametri attivi ridotta (11B su 196B totali), dimostra performance superiori a DeepSeek v3.2 in benchmark di coding e agenti. DeepSeek v3.2 utilizza un'architettura con molti più parametri attivi (37B...

#Hardware #LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

OLMO 3.5: in arrivo un modello ibrido per inference LLM efficiente

Il modello OLMO 3.5 di AI2 combina l'attenzione transformer standard con l'attenzione lineare tramite Gated Deltanet. Questo approccio ibrido mira a migliorare l'efficienza e ridurre l'utilizzo di memoria, mantenendo la qualità del modello. La serie ...

#Fine-Tuning
2026-02-01 LocalLLaMA

Falcon-H1-Tiny: modelli specializzati da 90M di parametri

TII rilascia Falcon-H1-Tiny, una serie di modelli con meno di 100 milioni di parametri che sfidano il dogma dello scaling. Questi modelli specializzati mostrano una minore tendenza alle allucinazioni rispetto ai modelli generalisti più grandi. Le var...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-01 LocalLLaMA

Modelli LLM non censurati disponibili su Hugging Face

Una panoramica dei modelli linguistici di grandi dimensioni (LLM) non censurati disponibili sulla piattaforma Hugging Face. La lista include varianti di GLM, GPT OSS, Gemma e Qwen, con diversi metodi di rimozione delle restrizioni. L'articolo fornisc...

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

4chan e LLM: dati "sporchi" possono migliorare le consegne?

Un esperimento ha mostrato come l'addestramento di un modello linguistico su un dataset derivato da 4chan abbia portato a risultati inattesi. Il modello, Assistant_Pepe_8B, ha superato le prestazioni del modello base Nemotron di NVIDIA, nonostante fo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-01 LocalLLaMA

NanoChat: superare GPT-2 con meno di 100 dollari

Andrej Karpathy ha dimostrato come superare le performance di GPT-2 con un modello chiamato NanoChat, addestrato in sole tre ore su 8 GPU H100. Il progetto include dettagli sull'architettura, ottimizzatori utilizzati, setup dei dati e uno script per ...

#Hardware #LLM On-Premise #DevOps
2026-01-31 LocalLLaMA

g-HOOT: Un Nuovo Articolo di Ricerca nel Mondo dell'AI

Un nuovo articolo di ricerca, disponibile su arXiv, denominato "g-HOOT in the Machine", ha catturato l'attenzione della comunità di LocalLLaMA. L'articolo, identificato tramite il link arXiv fornito, promette di esplorare nuove frontiere nel campo de...

2026-01-30 LocalLLaMA

GPT-OSS: un modello open-source ancora competitivo?

Un utente di LLM locali si interroga sull'eccezionale performance di GPT-OSS 120B, un modello open-source datato ma ancora competitivo. Nonostante le nuove architetture e modelli, GPT-OSS eccelle per velocità, efficacia e tool calling. L'articolo esp...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-30 LocalLLaMA

Il design è guidato da modelli aperti: cambia il paradigma?

Un post su Reddit, proveniente dalla comunità LocalLLaMA, ipotizza un futuro (nel 2026) in cui i modelli open source dominano il campo del design. La discussione si concentra sull'impatto di questa tendenza e sulle sue implicazioni per il settore.

#LLM On-Premise #DevOps
2026-01-29 LocalLLaMA

LingBot-World: simulazione dinamica open source batte Genie 3

Il framework LingBot-World offre un modello del mondo ad alte prestazioni completamente open source, in contrasto con sistemi proprietari come Genie 3. Supera Genie 3 nella gestione di fisica complessa e transizioni di scena, mantenendo 16 frame al s...

2026-01-29 LocalLLaMA

Modelli "distillati": perché non ce ne sono di più?

La comparsa di modelli "distillati" come Qwen 8B DeepSeek R1 ha dimostrato capacità di ragionamento superiori rispetto alle dimensioni. L'articolo si chiede perché non ci siano più modelli di questo tipo, capaci di operare su hardware con risorse lim...

#Hardware #LLM On-Premise #DevOps
2026-01-29 LocalLLaMA

Mistral: accesso all'intelligenza artificiale come all'elettricità

Arthur Mensch, CEO di Mistral, paragona l'accesso all'intelligenza artificiale all'accesso all'elettricità, sottolineando l'importanza di un accesso ininterrotto e non limitato a questa risorsa cruciale. La dichiarazione evidenzia la visione di Mistr...

#LLM On-Premise #DevOps
2026-01-29 LocalLLaMA

Qwen3-ASR: modelli open source per riconoscimento vocale multilingue

La famiglia Qwen3-ASR include modelli da 1.7B e 0.6B parametri, capaci di identificare la lingua e trascrivere l'audio in 52 lingue e dialetti. Il modello più grande raggiunge performance paragonabili a quelle di API commerciali proprietarie, offrend...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-29 LocalLLaMA

Mini-LLM: un modello Llama 3 da 80 milioni di parametri

Un tecnico ha sviluppato Mini-LLM, un modello linguistico di transformer con 80 milioni di parametri, partendo da zero e basato sull'architettura di Llama 3. Il progetto include tokenizzazione, caricamento dati in memoria, training in precisione mist...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-29 LocalLLaMA

OpenMOSS presenta MOVA: modello open-source per video e audio

OpenMOSS ha rilasciato MOVA (MOSS-Video-and-Audio), un modello completamente open-source con 18 miliardi di parametri attivi (architettura MoE, 32 miliardi totali). MOVA offre supporto immediato per SGLang-Diffusion e punta alla generazione scalabile...

2026-01-28 LocalLLaMA

LongCat-Flash-Lite: LLM ottimizzato per inference rapida

Meituan-Longcat ha rilasciato LongCat-Flash-Lite, un modello linguistico di grandi dimensioni (LLM) focalizzato sull'inference efficiente. Il modello è disponibile su Hugging Face e discusso su Reddit, suggerendo un interesse per l'utilizzo in contes...

#Hardware #LLM On-Premise #Fine-Tuning
2026-01-28 LocalLLaMA

AMA con Kimi: il laboratorio open-source dietro K2.5

Il team di Kimi, il laboratorio di ricerca open-source dietro il modello K2.5, ha partecipato a una sessione AMA (Ask Me Anything) su Reddit per rispondere alle domande della comunità LocalLLaMA. La sessione si è concentrata su vari aspetti del model...

2026-01-28 LocalLLaMA

Kimi K2.5: un modello open-source promettente per la programmazione

Secondo un post su Reddit, Kimi K2.5 si distingue come un modello open-source particolarmente efficace per attività di programmazione. La discussione online suggerisce che il modello offre risultati notevoli in questo specifico ambito.

#LLM On-Premise #DevOps
← Torna ai Topic