È stato rilasciato un nuovo modello linguistico di grandi dimensioni (LLM) chiamato Qwen3-Coder-Next REAP, con una dimensione di 48 miliardi di parametri. La particolarità di questa versione è la sua conversione nel formato GGUF (GPT-Generated Unified Format).
Dettagli del modello
Il modello è disponibile su Hugging Face. La conversione in formato GGUF rende il modello più facilmente utilizzabile su diverse piattaforme hardware, ampliandone la potenziale base di utenti. Il modello è stato sottoposto a un processo di REAP (presumibilmente un metodo di ottimizzazione o miglioramento delle prestazioni) del 40%.
Per chi valuta deployment on-premise, esistono trade-off in termini di requisiti hardware e performance. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!