InclusionAI ha annunciato il rilascio di Ling-2.5-1T, un modello linguistico di grandi dimensioni (LLM) open source progettato per migliorare l'accessibilità e le performance nell'ambito dell'intelligenza artificiale.
Caratteristiche principali di Ling-2.5-1T
- Dimensioni del modello: Ling-2.5-1T vanta 1 trilione di parametri totali, con 63 miliardi di parametri attivi.
- Corpus di addestramento: Il modello è stato addestrato su un vasto corpus di 29 trilioni di token, espanso rispetto alla generazione precedente.
- Architettura: Utilizza un'architettura ibrida di attention lineare, ottimizzata per un'elevata velocità di elaborazione e la gestione di contesti fino a 1 milione di token.
- Efficienza: L'introduzione di un meccanismo di reward composito, che combina "Correttezza" e "Ridondanza del processo", mira a migliorare l'equilibrio tra efficienza e performance.
- Allineamento: Strategie di allineamento raffinate, come il feedback RL bidirezionale e la verifica dei vincoli basata su agent, migliorano le performance in attività come la scrittura creativa e il rispetto delle istruzioni.
- Compatibilità con agent: Addestrato con Agentic RL in ambienti interattivi, Ling-2.5-1T è compatibile con piattaforme agent come Claude Code, OpenCode e OpenClaw.
Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
💬 Commenti (0)
🔒 Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!