Topic / Trend Rising

IA Open Source e Sviluppo della Comunità

Questo trend evidenzia la crescente importanza delle iniziative open-source nell'IA, incluso il rilascio di modelli, strumenti e dataset open-source. Copre anche gli sforzi guidati dalla comunità per migliorare e adattare queste risorse, come le ottimizzazioni per hardware specifici e la creazione di knowledge base condivise.

Detected: 2026-01-26 · Updated: 2026-01-26

Articoli Correlati

2026-01-25 TechCrunch AI

Humans&: nuovi modelli fondazionali per la collaborazione AI

La startup Humans&, fondata da ex dipendenti di Anthropic, Meta, OpenAI, xAI e Google DeepMind, sta sviluppando modelli fondazionali di nuova generazione focalizzati sulla collaborazione, superando il tradizionale approccio basato sulla chat.

#LLM On-Premise #DevOps
2026-01-25 LocalLLaMA

GLM-4.7-Flash: prestazioni ulteriormente migliorate

Una discussione su Reddit mette in evidenza i miglioramenti di velocità ottenuti con GLM-4.7-Flash, un modello linguistico di grandi dimensioni. I dettagli tecnici specifici e i risultati dei benchmark sono disponibili tramite un link a GitHub, offre...

#LLM On-Premise #DevOps
2026-01-25 LocalLLaMA

Idee di coding open source per l'ingegneria assistita da IA

Un utente di Reddit cerca consigli per strutturare una guida per sviluppatori, dai principianti ai veterani, interessati all'ingegneria assistita dall'intelligenza artificiale. L'obiettivo è creare un ambiente di apprendimento collaborativo e identif...

2026-01-25 The Register AI

Emmabuntüs DE 6: la distro Linux etica per i neofiti

Emmabuntüs DE 6 è una distribuzione Linux pensata per chi si avvicina per la prima volta al mondo del software libero. Punta a ridurre i rifiuti elettronici e supporta iniziative di beneficenza, offrendo documentazione chiara e strumenti accessibili.

2026-01-25 LocalLLaMA

GLM 4.7 Flash: ottimizzazione della cache KV per contesti più lunghi

Una nuova ottimizzazione per GLM 4.7 Flash riduce l'utilizzo di VRAM della cache KV. La modifica, che consiste nella rimozione di 'Air', permette di gestire contesti molto più lunghi con la stessa configurazione hardware, risparmiando gigabyte di mem...

#Hardware
2026-01-25 LocalLLaMA

SOSM: un'alternativa open source ai Transformer basata su grafi

Un ricercatore ha rilasciato in open source il progetto Self-Organizing State Model (SOSM), un'architettura di modello linguistico che esplora alternative all'attenzione dei Transformer standard. SOSM utilizza routing basato su grafi, separa la rappr...

2026-01-24 Phoronix

Newelle: l'assistente AI per GNOME ora supporta Llama.cpp

Newelle, l'assistente virtuale basato su intelligenza artificiale per l'ambiente desktop GNOME, si aggiorna con nuove integrazioni. Oltre al supporto per Google Gemini, OpenAI e Groq, l'ultima versione introduce il supporto per modelli LLM locali tra...

#LLM On-Premise
2026-01-23 Phoronix

VVenC H.266: Ottimizzazioni ARM per prestazioni superiori

Fraunhofer HHI ha rilasciato una nuova versione di VVenC, il suo encoder video H.266 open-source. L'aggiornamento include ottimizzazioni delle prestazioni per architettura ARM. I primi benchmark mostrano un miglioramento delle prestazioni su sistemi ...

#Hardware
2026-01-22 LocalLLaMA

Qwen3-TTS: la famiglia di modelli open source per la sintesi vocale

Qwen ha rilasciato in open source l'intera famiglia di modelli Qwen3-TTS, che include VoiceDesign, CustomVoice e Base. Sono disponibili cinque modelli in due dimensioni (0.6B e 1.8B), con supporto per dieci lingue. Il codice, i modelli pre-addestrati...

2026-01-21 LocalLLaMA

File Brain: ricerca semantica locale open source nei tuoi documenti

File Brain è un motore di ricerca open source che indicizza i file in locale e permette di cercarli usando il linguaggio naturale. Supporta la ricerca semantica multilingue, l'OCR integrato ed è disponibile per Windows e Linux. L'obiettivo è superare...

2026-01-20 Phoronix

AMD semplifica l'installazione di vLLM per ROCm

AMD ha introdotto un metodo più semplice per installare vLLM su hardware Radeon/Instinct tramite ROCm. Un nuovo wheel Python facilita l'installazione senza ricorrere a Docker, migliorando l'esperienza per gli sviluppatori che utilizzano GPU AMD per l...

#Hardware #LLM On-Premise #DevOps
2026-01-19 LocalLLaMA

GLM-4.7-Flash: nuovo modello linguistico open-source su Hugging Face

È disponibile su Hugging Face il modello linguistico GLM-4.7-Flash. La notizia è stata diffusa su Reddit, aprendo un filone di discussione nella comunità LocalLLaMA. Il modello open-source promette nuove opportunità per lo sviluppo di applicazioni di...

2026-01-19 LocalLLaMA

Agente browser on-device con Qwen: demo in locale su Chrome

Una nuova demo mostra un agente browser locale, basato su Web GPU Liquid LFM e sui modelli Qwen di Alibaba, in esecuzione come estensione di Chrome. L'agente apre 'All in Podcast' su YouTube. Il codice sorgente è disponibile su GitHub per chi volesse...

#Hardware
2026-01-19 LocalLLaMA

Top-K: algoritmo ottimizzato fino a 20x più veloce di PyTorch

Un tecnico ha sviluppato un'implementazione ottimizzata di Top-K, cruciale per il campionamento nei modelli linguistici di grandi dimensioni (LLM). L'ottimizzazione, basata su AVX2, surclassa le prestazioni di PyTorch su CPU da 4 a 20 volte, a second...

#Hardware #LLM On-Premise
2026-01-19 The Register AI

Open source: la nuova missione è ricostruire il settore tech europeo

L'Europa, nota per un settore tecnicico iper-regolamentato, potrebbe trovare nell'open source una via per ricostruire e rafforzare la propria infrastruttura tecnicica. L'adozione di soluzioni aperte potrebbe favorire l'innovazione e ridurre la dipend...

← Torna ai Topic