È stato rilasciato un nuovo modello linguistico di grandi dimensioni (LLM) chiamato Omnicoder-Claude-4.6-Opus-Uncensored-GGUF, progettato per l'inference locale e derivato da Claude Opus.

Caratteristiche Principali

  • Architettura: Basato su Qwen 3.5 9B.
  • Distillazione: Creato tramite distillazione da Claude Opus.
  • Assenza di Censure: Progettato per operare senza filtri.
  • Quantization: Sono disponibili quantizzazioni Q4_K_M e Q8_0.
  • Merge: Il modello è il risultato di un processo di merge che include modelli di Jackrong, HauhauCS e Tesslate.

Dettagli Tecnici

Il modello è stato creato utilizzando uno script di Add Difference merge, preservando l'header GGUF e la struttura dei metadata per garantire la compatibilità. La creazione ha coinvolto diversi modelli preesistenti, tra cui:

  • L'ultimo aggiornamento del modello Jackrong, addestrato su un dataset distillato da Claude Opus.
  • Il modello HauhauCS uncensored Qwen 3.5 9B.
  • Omnicoder creato da Tesslate.
  • La quantization Bartowski è stata usata come base.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per la valutazione di queste opzioni.