È stato rilasciato un nuovo modello linguistico di grandi dimensioni (LLM) chiamato Omnicoder-Claude-4.6-Opus-Uncensored-GGUF, progettato per l'inference locale e derivato da Claude Opus.
Caratteristiche Principali
- Architettura: Basato su Qwen 3.5 9B.
- Distillazione: Creato tramite distillazione da Claude Opus.
- Assenza di Censure: Progettato per operare senza filtri.
- Quantization: Sono disponibili quantizzazioni Q4_K_M e Q8_0.
- Merge: Il modello è il risultato di un processo di merge che include modelli di Jackrong, HauhauCS e Tesslate.
Dettagli Tecnici
Il modello è stato creato utilizzando uno script di Add Difference merge, preservando l'header GGUF e la struttura dei metadata per garantire la compatibilità. La creazione ha coinvolto diversi modelli preesistenti, tra cui:
- L'ultimo aggiornamento del modello Jackrong, addestrato su un dataset distillato da Claude Opus.
- Il modello HauhauCS uncensored Qwen 3.5 9B.
- Omnicoder creato da Tesslate.
- La quantization Bartowski è stata usata come base.
Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per la valutazione di queste opzioni.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!