Un utente ha condiviso la sua esperienza con i modelli linguistici Qwen3.5-35B e Qwen3.5-27B, focalizzandosi in particolare sull'efficienza nell'utilizzo dei token e sulla reattività dei modelli in un contesto di utilizzo specifico.
Configurazione Hardware e Software
L'utente esegue i modelli su una RTX 5090 utilizzando llama.cpp (llama-server) alla release b8269. I modelli sono impiegati principalmente come "chat app", con accesso a strumenti come la ricerca web, la manipolazione di immagini e l'interrogazione di informazioni sul server domestico.
Parametri e Prompt di Sistema
L'aspetto interessante è l'utilizzo dei parametri di default per i modelli Qwen3.5-35B-A3B e Qwen3.5-27B. L'utente specifica di non impostare alcun parametro aggiuntivo rispetto a quelli predefiniti. Il prompt di sistema è basico, ma efficace, definendo il modello come un assistente capace e preciso, addestrato da Qwen AI.
Efficienza e Sovranità dei Dati
L'utente sottolinea di non aver riscontrato problemi di "overthinking" con questi modelli, contrariamente a quanto riportato da altri. L'esperienza positiva è attribuita, in parte, alla configurazione hardware e software, ma anche all'approccio minimalista nella definizione dei parametri. L'utente esegue i modelli in locale, garantendo la sovranità dei dati e il controllo completo sull'infrastruttura.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!