Topic / Trend Rising

Qwen LLM di Alibaba

Molteplici articoli evidenziano i progressi e le applicazioni del modello linguistico di grandi dimensioni Qwen di Alibaba, inclusa la sua natura open source, i benchmark di performance e la ristrutturazione del team.

Detected: 2026-03-05 · Updated: 2026-03-05

Articoli Correlati

2026-03-05 LocalLLaMA

Alibaba: il modello Qwen rimarrà open source

Il CEO di Alibaba ha confermato che il modello linguistico di grandi dimensioni (LLM) Qwen continuerà a essere sviluppato e distribuito con licenza open source. Questa decisione strategica potrebbe favorire l'adozione del modello in scenari on-premis...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Qwen3.5-35B-A3B: performance vicina a Claude Opus con verifica continua

Un modello MoE (Mixture of Experts) chiamato Qwen3.5-35B-A3B, con soli 3 miliardi di parametri attivi, ha raggiunto prestazioni sorprendenti nel benchmark SWE-bench Verified Hard. Implementando una strategia di verifica continua dopo ogni modifica al...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Aggiornamenti sulla riorganizzazione del team Qwen

Aggiornamenti sulla riorganizzazione interna del team di sviluppo di Qwen, il modello linguistico di grandi dimensioni sviluppato da Alibaba. La notizia è stata diffusa tramite un post su X (ex Twitter) e discussa su Reddit.

#LLM On-Premise #DevOps
2026-03-03 TechCrunch AI

Alibaba: cambio al vertice del team Qwen dopo una spinta sull'AI

Junyang Lin, responsabile tecnico del team Qwen di Alibaba, si è dimesso dopo il lancio di un importante modello di intelligenza artificiale. La notizia ha generato reazioni all'interno del team, sollevando interrogativi sulle strategie future del co...

#LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

Qwen 3.5: Attenzione alla Cache KV! Richiede BF16, non FP16

Un avviso per chi utilizza Qwen 3.5 in locale con llama.cpp: la cache KV deve essere impostata manualmente su BF16 (bfloat16) anziché sul valore predefinito FP16 (float16). Test di perplexity su wikitext-2-raw confermano che l'implementazione ufficia...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-02 LocalLLaMA

Alibaba rilascia CoPaw per workflow AI multicanale

Il team di Alibaba ha rilasciato CoPaw, una workstation personale ad alte prestazioni per aiutare gli sviluppatori a scalare i workflow di intelligenza artificiale multicanale. CoPaw è progettato per migliorare la gestione della memoria e l'efficienz...

#LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

Qwen 3.5: nuova versione small disponibile

È stata rilasciata una nuova versione del modello linguistico Qwen 3.5. La versione 'small' potrebbe consentire consegne più efficienti su hardware con risorse limitate, aprendo nuove possibilità per applicazioni on-premise e ambienti edge.

#LLM On-Premise #DevOps
2026-03-02 ArXiv cs.CL

Segmentazione semantica di documenti ultra-lunghi con Qwen3-0.6B

Un nuovo modello discriminativo basato su Qwen3-0.6B affronta la segmentazione di documenti ultra-lunghi, superando i limiti dei modelli generativi in termini di velocità e supporto per input estesi. Il modello utilizza un approccio a finestra scorre...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-01 LocalLLaMA

Imminente rilascio del modello Qwen3.5 Small Dense?

Indiscrezioni su Reddit suggeriscono l'imminente rilascio di Qwen3.5 Small Dense. La comunità open source attende con interesse per valutare le performance e le potenziali applicazioni di questo modello.

#Hardware #LLM On-Premise #DevOps
2026-03-01 LocalLLaMA

Qwen 3.5 27B: il modello cinese migliore sotto i 70B per traduzioni

Un utente di LocalLLaMA riporta che Qwen 3.5 27B offre traduzioni dal cinese paragonabili a GPT-3.5 e Gemini, superando altri modelli fino a 70B. Il modello è stato testato su una configurazione locale con 24GB di VRAM, evidenziando un'ottima resa in...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

Qwen 3.5-35B-A3B: un modello sorprendente per task di sviluppo

Un utente di Reddit riporta risultati eccezionali con Qwen 3.5-35B-A3B, un modello che ha sostituito GPT-OSS-120B nel suo flusso di lavoro quotidiano. L'utente lo impiega per attività di sviluppo, automazione di processi e analisi di codice, evidenzi...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen3.5: performance promettenti per carichi di lavoro reali

Un utente ha testato Qwen3.5-35B-A3B-UD-Q6_K_XL su progetti reali, riscontrando risultati positivi. La velocità di generazione dei token è elevata, specialmente su singola GPU. L'esperienza suggerisce un potenziale passaggio a un modello ibrido, con ...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen2.5-Coder-32B: fine-tuning batte ChatGPT 4o nel coding

Un utente ha eseguito il fine-tuning del modello Qwen2.5-Coder-32B, ottenendo performance superiori a ChatGPT 4o nei benchmark di coding. La notizia, diffusa su Reddit, evidenzia il potenziale dei modelli open source quando vengono ottimizzati per ta...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-27 LocalLLaMA

Qwen 3.5: analisi dell'architettura e distribuzione dei parametri

Un'analisi approfondita dell'architettura di Qwen 3.5 rivela differenze chiave nella distribuzione dei parametri tra i modelli dense (27B) e Mixture of Experts (MoE) (122B e 35B). Il modello dense, pur avendo un footprint parametrico inferiore, compe...

#LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen3.5 27B vs Devstral Small 2: Test su Next.js e Solidity

Un utente ha confrontato le performance di Qwen3.5 27B e Devstral Small 2 in scenari di sviluppo reali, focalizzandosi su Next.js e Solidity. I test, eseguiti su hardware dedicato, hanno valutato correttezza, compatibilità e disciplina del codice, ev...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen3.5-27B-heretic: modello GGUF disponibile su Hugging Face

Una versione del modello linguistico Qwen3.5-27B, denominata "heretic", è stata resa disponibile in formato GGUF su Hugging Face. Il formato GGUF è progettato per l'inference efficiente su CPU, rendendolo adatto per l'esecuzione di modelli localmente...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic