È stata rilasciata una versione unificata di Qwen3.5-9B, ottenuta combinando il modello di Jackrong basato su Claude 4.6 Opus con una versione senza censure sviluppata da HauhauCS.

Caratteristiche principali

  • Integrazione: Unisce le capacità di ragionamento di Qwen3.5-9B con i dati di training di Claude 4.6 Opus.
  • Filtro contenuti: Utilizza un filtro di contenuti meno restrittivo rispetto ai modelli standard.
  • Prestazioni: Ottimizzato per l'esecuzione locale, con un'attenzione particolare all'efficienza su hardware meno performante. Su una RTX 3060, si raggiungono 42 token al secondo in LM Studio.
  • Formato: Disponibile in formato GGUF, adatto per l'inference su CPU e GPU con memoria limitata.

Il modello è pensato per chi desidera eseguire modelli di linguaggio di grandi dimensioni localmente, senza le restrizioni tipiche dei modelli più conservativi. Per chi valuta deployment on-premise, esistono trade-off da considerare, come evidenziato dai framework analitici di AI-RADAR su /llm-onpremise.