Fine-tuning di Gemma 3 per ragionamento e libertร
DavidAU ha annunciato il rilascio di 20 modelli fine-tuned basati sull'architettura Gemma 3, spaziando da 1 miliardo a 27 miliardi di parametri. Questi modelli sono stati addestrati utilizzando dataset derivati da GLM 4.7 Flash, GPT, Claude e Gemini, con un focus particolare sul miglioramento delle capacitร di ragionamento.
Un aspetto distintivo di questi modelli รจ il processo di 'Heretic', che rimuove le restrizioni di censura. Secondo DavidAU, questo passaggio, eseguito prima dell'ottimizzazione, porta a un miglioramento significativo delle prestazioni.
I modelli sono disponibili su Hugging Face all'indirizzo https://huggingface.co/collections/DavidAU/gemma-3-reasoning-thinking-models-incl-uncensored.
Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!