Deepseek, azienda cinese specializzata in modelli linguistici, sta testando un nuovo modello di cui al momento non sono noti i dettagli architetturali.

Benchmark preliminari

I primi test si concentrano sulla capacitร  del modello di comprendere testi lunghi. I risultati, pubblicati su Reddit, mostrano una serie di valutazioni su indici diversi, con finestre di contesto di 128.000 e 256.000 token. Alcuni test sono stati superati, altri no. Il nome del modello usato nei benchmark รจ un placeholder.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.