DeepSeek V3.2: un contendente a basso costo per GPT-5
DeepSeek, un laboratorio cinese, ha annunciato il rilascio di V3.2, un modello di intelligenza artificiale open source che promette di competere con GPT-5 in compiti di ragionamento matematico. La particolaritร di questo modello risiede nel suo costo: si stima che l'esecuzione di DeepSeek V3.2 costi circa un decimo rispetto a GPT-5.
Questo risultato รจ stato ottenuto grazie all'implementazione di una nuova architettura chiamata "Sparse Attention". Tale architettura ha permesso di raggiungere prestazioni elevate con un investimento di circa 5,5 milioni di dollari per l'addestramento. In confronto, le grandi aziende tecniciche statunitensi spendono oltre 100 milioni di dollari per sviluppare modelli simili.
L'approccio open source di DeepSeek potrebbe democratizzare l'accesso a modelli di intelligenza artificiale avanzati, consentendo a un pubblico piรน ampio di sviluppare e implementare soluzioni basate sull'IA. La competizione nel settore dei modelli linguistici di grandi dimensioni (LLM) รจ in rapida crescita, con nuove architetture e tecniche di addestramento che emergono costantemente. Questa competizione porta a progressi piรน rapidi e a una maggiore accessibilitร per gli utenti.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!