Un utente ha condiviso la sua esperienza con i modelli linguistici Qwen3.5-35B e Qwen3.5-27B, focalizzandosi in particolare sull'efficienza nell'utilizzo dei token e sulla reattività dei modelli in un contesto di utilizzo specifico.

Configurazione Hardware e Software

L'utente esegue i modelli su una RTX 5090 utilizzando llama.cpp (llama-server) alla release b8269. I modelli sono impiegati principalmente come "chat app", con accesso a strumenti come la ricerca web, la manipolazione di immagini e l'interrogazione di informazioni sul server domestico.

Parametri e Prompt di Sistema

L'aspetto interessante è l'utilizzo dei parametri di default per i modelli Qwen3.5-35B-A3B e Qwen3.5-27B. L'utente specifica di non impostare alcun parametro aggiuntivo rispetto a quelli predefiniti. Il prompt di sistema è basico, ma efficace, definendo il modello come un assistente capace e preciso, addestrato da Qwen AI.

Efficienza e Sovranità dei Dati

L'utente sottolinea di non aver riscontrato problemi di "overthinking" con questi modelli, contrariamente a quanto riportato da altri. L'esperienza positiva è attribuita, in parte, alla configurazione hardware e software, ma anche all'approccio minimalista nella definizione dei parametri. L'utente esegue i modelli in locale, garantendo la sovranità dei dati e il controllo completo sull'infrastruttura.