Topic / Trend Rising

LLM Open Source

I modelli linguistici di grandi dimensioni (LLM) open source stanno guadagnando terreno, offrendo maggiore trasparenza e personalizzabilità rispetto ai modelli proprietari. Aziende e ricercatori stanno attivamente sviluppando e rilasciando nuovi LLM open source, guidando l'innovazione nel settore.

Detected: 2026-02-22 · Updated: 2026-02-22

Articoli Correlati

2026-02-21 LocalLLaMA

Qwen Code: agente di sviluppo open source con fork senza telemetria

Qwen Code è un agente di sviluppo CLI open source creato dal team Qwen di Alibaba. Permette di automatizzare attività di sviluppo interagendo direttamente con il codice. È disponibile una versione modificata che rimuove la telemetria, garantendo magg...

#LLM On-Premise #DevOps
2026-02-21 LocalLLaMA

Ouro-2.6B-Thinking: inference funzionante per il modello di ByteDance

Risolti i problemi di inference con Ouro-2.6B-Thinking di ByteDance, un modello Universal Transformer ricorrente. La correzione riguarda incompatibilità con Transformers 4.55. Le consegne ora producono risultati validi. Testato su NVIDIA L4 con prest...

#Hardware
2026-02-21 LocalLLaMA

L'importanza di figure chiave nell'innovazione LLM open source

Un post su Reddit evidenzia l'impatto potenziale di figure di spicco come Andrej Karpathy nello sviluppo di modelli linguistici di grandi dimensioni (LLM) open source. La discussione sottolinea come la presenza di esperti possa accelerare significati...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-20 LocalLLaMA

Hugging Face acquisisce GGML e llama.cpp per l'AI locale

Hugging Face ha annunciato l'acquisizione di GGML e llama.cpp, due progetti open source cruciali per l'esecuzione efficiente di modelli di linguaggio di grandi dimensioni (LLM) su hardware consumer. L'obiettivo è garantire lo sviluppo a lungo termine...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Hugging Face acquisisce GGML.AI, focalizzata su inference LLM efficiente

Hugging Face ha acquisito GGML.AI, nota per il suo lavoro sull'inference efficiente di modelli linguistici di grandi dimensioni (LLM). L'acquisizione, discussa su Reddit e GitHub, potrebbe portare a una maggiore integrazione delle tecnicie di GGML ne...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

PaddleOCR-VL integrato in llama.cpp per inference locale

Il modello open-source multilingue PaddleOCR-VL è stato integrato in llama.cpp. Questa integrazione permette di eseguire l'inference del modello direttamente su hardware locale, aprendo nuove possibilità per applicazioni OCR con requisiti di privacy ...

#LLM On-Premise #DevOps
2026-02-20 ArXiv cs.LG

MMCAformer: predizione del traffico con dati di veicoli connessi

Un nuovo modello, MMCAformer, integra dati macroscopici sul flusso di traffico con informazioni microscopiche sul comportamento di guida dei singoli veicoli connessi per migliorare la precisione nella predizione della velocità del traffico. L'approcc...

2026-02-19 LocalLLaMA

Dubbi sulle prestazioni reali dei modelli AI open source in locale

Un post su Reddit mette in discussione le reali capacità dei modelli AI open source eseguiti offline su hardware consumer. La discussione verte sull'effettiva utilità di tali implementazioni, sollevando interrogativi sulle aspettative degli utenti.

#Hardware #LLM On-Premise #DevOps
2026-02-19 LocalLLaMA

Llama.cpp: supporto per quantizzazioni IQ*_K e IQ*_KS

Una pull request a llama.cpp introduce il supporto per gli schemi di quantization IQ*_K e IQ*_KS, derivati dal progetto ik_llama.cpp. Questa implementazione potrebbe portare a modelli più compatti ed efficienti, particolarmente rilevante per l'infere...

#LLM On-Premise #DevOps
2026-02-18 LocalLLaMA

FlashLM v4: modello ternario da 4.3M addestrato su CPU in 2 ore

FlashLM v4 è un modello linguistico con 4.3 milioni di parametri, pesi ternari (-1, 0, +1) e addestramento su CPU in sole due ore. Genera storie coerenti, dimostrando che modelli di dimensioni ridotte possono raggiungere risultati interessanti con un...

#Hardware #Fine-Tuning
2026-02-18 LocalLLaMA

LLM di ByteShape: modelli coder per ogni hardware, incluso Raspberry Pi

ByteShape rilascia Devstral-Small-2-24B e Qwen3-Coder-30B, modelli ottimizzati per diverse piattaforme hardware. Devstral eccelle su GPU RTX 40/50, mentre Qwen3-Coder offre prestazioni su Raspberry Pi 5. La scelta dipende dalle risorse disponibili e ...

#Hardware #LLM On-Premise #DevOps
2026-02-18 LocalLLaMA

Qwen 3.5: in arrivo la quantization MXFP4

Junyang Lin ha confermato l'imminente rilascio di modelli Qwen 3.5 con quantization MXFP4. Questo formato, già adottato da OpenAI con GPT-Oss e da Google con Gemma 3 QAT, promette una qualità superiore rispetto alle tradizionali quantizzazioni BF16. ...

#Hardware #LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Sarvam porta i suoi modelli AI su feature phone e dispositivi edge

La startup indiana Sarvam sta sviluppando modelli di AI di dimensioni ridotte, pensati per funzionare su dispositivi edge come feature phone, automobili e smart glasses. I modelli, con un footprint di pochi megabyte, possono operare offline e con pro...

#LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Sarvam AI punta sull'open source con nuovi modelli linguistici

Il laboratorio indiano Sarvam AI ha presentato una nuova serie di modelli, tra cui modelli linguistici con 30 e 105 miliardi di parametri, un modello text-to-speech, uno speech-to-text e un modello di visione per l'analisi di documenti. Una scommessa...

#LLM On-Premise #DevOps
2026-02-17 LocalLLaMA

Qwen3.5-397B di Alibaba: modello open-source #3 al mondo

Il modello linguistico di grandi dimensioni (LLM) Qwen3.5-397B di Alibaba ha raggiunto la terza posizione nella classifica dei modelli open-source, secondo l'Artificial Analysis Intelligence Index. Questo risultato sottolinea i progressi nel campo de...

#LLM On-Premise #DevOps
2026-02-17 LocalLLaMA

Qwen 3.5: un'alternativa a Llama 4 Scout?

Un utente di Reddit ha sollevato un'interessante questione: Qwen 3.5 potrebbe essere un valido sostituto di Llama 4 Scout? La domanda ha generato un dibattito nella community di LocalLLaMA, con pareri discordanti sulla reale comparabilità dei due mod...

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Modelli Open Source dominano OpenRouter: un trend in crescita

Secondo recenti dati di OpenRouter, i modelli open source stanno guadagnando terreno nell'utilizzo reale. La tendenza evidenzia una crescente fiducia nelle alternative open per applicazioni di intelligenza artificiale, con implicazioni significative ...

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Qwen 3.5: Modello Multimodale Open Source ad Alta Efficienza

Il modello multimodale Qwen 3.5-397B-A17B è stato rilasciato in open source. Questo modello di ultima generazione promette alta efficienza e capacità multimodali native. La notizia è stata diffusa su Reddit, attirando l'attenzione della comunità Loca...

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Rilasciato Qwen3.5-397B-A17B: il modello linguistico open-source

È disponibile Qwen3.5-397B-A17B, un modello linguistico di grandi dimensioni (LLM) open-source sviluppato da Qwen. Il modello è accessibile tramite Hugging Face, aprendo nuove possibilità per la ricerca e lo sviluppo nel campo dell'intelligenza artif...

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Qwen3.5-397B-A17B: modello linguistico open source in arrivo

Il modello linguistico di grandi dimensioni (LLM) Qwen3.5-397B-A17B sarà rilasciato come open source. L'annuncio è stato diffuso tramite una immagine proveniente dal sito chat.qwen.ai, generando interesse nella comunità LocalLLaMA.

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Alibaba rilascerà Qwen 3.5: modello open-source di nuova generazione

Secondo alcune fonti, Alibaba rilascerà oggi Qwen 3.5, un modello linguistico di grandi dimensioni (LLM) open-source di nuova generazione. Si prevede che il modello presenti innovazioni significative nella sua architettura, aprendo nuove possibilità ...

#LLM On-Premise #DevOps
2026-02-15 LocalLLaMA

InclusionAI presenta Ling-2.5-1T: modello da 1T parametro open source

InclusionAI ha rilasciato Ling-2.5-1T, un modello linguistico open source con 1 trilione di parametri (di cui 63 miliardi attivi). Addestrato su un corpus di 29 trilioni di token, Ling-2.5-1T punta a bilanciare efficienza e performance, offrendo capa...

#LLM On-Premise #DevOps
2026-02-15 LocalLLaMA

Modelli open-source dominano la classifica di OpenRouter

Per la prima volta, i primi quattro modelli nella classifica di OpenRouter sono tutti open-weight. Questo segna un potenziale punto di svolta per l'adozione e la fiducia nei modelli di linguaggio open-source, offrendo alternative valide ai modelli pr...

#LLM On-Premise #DevOps
← Torna ai Topic