InclusionAI ha annunciato il rilascio di Ling-2.5-1T, un modello linguistico di grandi dimensioni (LLM) open source progettato per migliorare l'accessibilità e le performance nell'ambito dell'intelligenza artificiale.

Caratteristiche principali di Ling-2.5-1T

  • Dimensioni del modello: Ling-2.5-1T vanta 1 trilione di parametri totali, con 63 miliardi di parametri attivi.
  • Corpus di addestramento: Il modello è stato addestrato su un vasto corpus di 29 trilioni di token, espanso rispetto alla generazione precedente.
  • Architettura: Utilizza un'architettura ibrida di attention lineare, ottimizzata per un'elevata velocità di elaborazione e la gestione di contesti fino a 1 milione di token.
  • Efficienza: L'introduzione di un meccanismo di reward composito, che combina "Correttezza" e "Ridondanza del processo", mira a migliorare l'equilibrio tra efficienza e performance.
  • Allineamento: Strategie di allineamento raffinate, come il feedback RL bidirezionale e la verifica dei vincoli basata su agent, migliorano le performance in attività come la scrittura creativa e il rispetto delle istruzioni.
  • Compatibilità con agent: Addestrato con Agentic RL in ambienti interattivi, Ling-2.5-1T è compatibile con piattaforme agent come Claude Code, OpenCode e OpenClaw.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.