Topic / Trend Rising

Sviluppi del LLM Qwen

La serie Qwen di modelli linguistici di grandi dimensioni sta guadagnando terreno, con il rilascio di nuovi modelli e ottimizzazioni. Questi modelli vengono utilizzati per una varietà di compiti, tra cui la codifica, la traduzione e il ragionamento, e stanno attirando l'attenzione della comunità open source.

Detected: 2026-03-03 · Updated: 2026-03-03

Articoli Correlati

2026-03-02 LocalLLaMA

Qwen 3.5: Attenzione alla Cache KV! Richiede BF16, non FP16

Un avviso per chi utilizza Qwen 3.5 in locale con llama.cpp: la cache KV deve essere impostata manualmente su BF16 (bfloat16) anziché sul valore predefinito FP16 (float16). Test di perplexity su wikitext-2-raw confermano che l'implementazione ufficia...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-02 LocalLLaMA

Qwen 3.5: nuova versione small disponibile

È stata rilasciata una nuova versione del modello linguistico Qwen 3.5. La versione 'small' potrebbe consentire consegne più efficienti su hardware con risorse limitate, aprendo nuove possibilità per applicazioni on-premise e ambienti edge.

#LLM On-Premise #DevOps
2026-03-02 ArXiv cs.CL

Segmentazione semantica di documenti ultra-lunghi con Qwen3-0.6B

Un nuovo modello discriminativo basato su Qwen3-0.6B affronta la segmentazione di documenti ultra-lunghi, superando i limiti dei modelli generativi in termini di velocità e supporto per input estesi. Il modello utilizza un approccio a finestra scorre...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-01 LocalLLaMA

Imminente rilascio del modello Qwen3.5 Small Dense?

Indiscrezioni su Reddit suggeriscono l'imminente rilascio di Qwen3.5 Small Dense. La comunità open source attende con interesse per valutare le performance e le potenziali applicazioni di questo modello.

#Hardware #LLM On-Premise #DevOps
2026-03-01 LocalLLaMA

Qwen 3.5 27B: il modello cinese migliore sotto i 70B per traduzioni

Un utente di LocalLLaMA riporta che Qwen 3.5 27B offre traduzioni dal cinese paragonabili a GPT-3.5 e Gemini, superando altri modelli fino a 70B. Il modello è stato testato su una configurazione locale con 24GB di VRAM, evidenziando un'ottima resa in...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

Google: Ragionamenti più lunghi non implicano maggior accuratezza nei LLM

Una nuova ricerca di Google mette in discussione l'assunto che catene di ragionamento più lunghe portino a risultati migliori nei modelli linguistici. Lo studio introduce il concetto di Deep Thinking Ratio (DTR) per misurare la qualità del ragionamen...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

DeepSeek V4: in arrivo funzionalità di generazione immagini e video

Secondo il Financial Times, DeepSeek si prepara a rilasciare la versione 4 del suo modello di intelligenza artificiale. La nuova versione includerà funzionalità avanzate di generazione di immagini e video, ponendosi come concorrente diretto dei model...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

Qwen 3.5-35B-A3B: un modello sorprendente per task di sviluppo

Un utente di Reddit riporta risultati eccezionali con Qwen 3.5-35B-A3B, un modello che ha sostituito GPT-OSS-120B nel suo flusso di lavoro quotidiano. L'utente lo impiega per attività di sviluppo, automazione di processi e analisi di codice, evidenzi...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen3.5: performance promettenti per carichi di lavoro reali

Un utente ha testato Qwen3.5-35B-A3B-UD-Q6_K_XL su progetti reali, riscontrando risultati positivi. La velocità di generazione dei token è elevata, specialmente su singola GPU. L'esperienza suggerisce un potenziale passaggio a un modello ibrido, con ...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen2.5-Coder-32B: fine-tuning batte ChatGPT 4o nel coding

Un utente ha eseguito il fine-tuning del modello Qwen2.5-Coder-32B, ottenendo performance superiori a ChatGPT 4o nei benchmark di coding. La notizia, diffusa su Reddit, evidenzia il potenziale dei modelli open source quando vengono ottimizzati per ta...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-27 LocalLLaMA

Qwen 3.5: analisi dell'architettura e distribuzione dei parametri

Un'analisi approfondita dell'architettura di Qwen 3.5 rivela differenze chiave nella distribuzione dei parametri tra i modelli dense (27B) e Mixture of Experts (MoE) (122B e 35B). Il modello dense, pur avendo un footprint parametrico inferiore, compe...

#LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen3.5 27B vs Devstral Small 2: Test su Next.js e Solidity

Un utente ha confrontato le performance di Qwen3.5 27B e Devstral Small 2 in scenari di sviluppo reali, focalizzandosi su Next.js e Solidity. I test, eseguiti su hardware dedicato, hanno valutato correttezza, compatibilità e disciplina del codice, ev...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen3.5-27B-heretic: modello GGUF disponibile su Hugging Face

Una versione del modello linguistico Qwen3.5-27B, denominata "heretic", è stata resa disponibile in formato GGUF su Hugging Face. Il formato GGUF è progettato per l'inference efficiente su CPU, rendendolo adatto per l'esecuzione di modelli localmente...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen3.5-35B-A3B: promettenti sviluppi per i modelli linguistici

La comunità open source segnala progressi significativi con il modello linguistico Qwen3.5-35B-A3B. In particolare, si discute di un framework per il testing semantico di query SQL. Resta alta l'attesa per una versione più piccola, Qwen3.5-4B.

#LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen 3.5 35B MoE: 40+ token/s su RTX 5060 Ti con contesto 100k

Test di performance del modello linguistico Qwen 3.5 35B MoE con una RTX 5060 Ti da 16GB. I risultati mostrano una velocità di generazione di oltre 40 token al secondo con un contesto di 100.000 token, aprendo nuove possibilità per l'inference di LLM...

#Hardware #LLM On-Premise #DevOps
2026-02-24 LocalLLaMA

Qwen3.5-122B-A10B: Modello Linguistico Open Source su Hugging Face

Il modello linguistico Qwen3.5-122B-A10B è ora disponibile su Hugging Face. Questa versione open source offre nuove opportunità per la ricerca e lo sviluppo di applicazioni di intelligenza artificiale, consentendo un maggiore controllo e personalizza...

#Hardware #LLM On-Premise #DevOps
2026-02-24 LocalLLaMA

Nuovi modelli Qwen3.5 avvistati su Qwen Chat

Sono stati individuati nuovi modelli Qwen3.5 sulla piattaforma Qwen Chat. La scoperta è stata segnalata su Reddit, aprendo discussioni nella comunità LocalLLaMA riguardo le implicazioni e le potenziali applicazioni di questi modelli aggiornati.

← Torna ai Topic