DeepSeek ha recentemente ampliato significativamente la finestra di contesto del suo modello linguistico, portandola a 1 milione di token.
Dettagli dell'aggiornamento
L'aggiornamento, rilevato inizialmente su Reddit, indica che l'applicazione DeepSeek ora supporta una finestra di contesto notevolmente più ampia. Parallelamente, la data di riferimento della conoscenza del modello è stata estesa fino a maggio 2025. Resta da chiarire se questo ampliamento della finestra di contesto sia dovuto a un nuovo modello o a un miglioramento del modello esistente. Al momento, non sono stati rilasciati annunci ufficiali o aggiornamenti sulla pagina Hugging Face del progetto.
Implicazioni
Una finestra di contesto più ampia consente al modello di elaborare e generare testo basato su una quantità maggiore di informazioni precedenti, migliorando potenzialmente la qualità e la coerenza delle consegne. Per chi valuta deployment on-premise, esistono trade-off da considerare quando si utilizzano modelli con finestre di contesto estese, in termini di requisiti di memoria e potenza di calcolo. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi trade-off.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!