Topic / Trend Rising

Sviluppo AI Open Source e Comunità

La comunità AI open source è in forte espansione, con sforzi collaborativi per sviluppare e condividere modelli, strumenti e risorse. Ciò promuove l'innovazione, l'accessibilità e la trasparenza nello sviluppo dell'IA, ma solleva anche interrogativi sulla sicurezza e sull'uso responsabile.

Detected: 2026-01-21 · Updated: 2026-01-21

Articoli Correlati

2026-01-20 Phoronix

LLVM: via libera ai contributi AI, ma con supervisione umana

Il progetto open-source LLVM ha definito una policy per l'integrazione di codice generato tramite intelligenza artificiale. I contributi sviluppati con l'ausilio di strumenti AI saranno accettati, a condizione che un umano esamini e approvi il codice...

2026-01-20 LocalLLaMA

Liquid AI: modello LLM da 1GB per ragionamento on-device

Liquid AI ha rilasciato LFM2.5-1.2B-Thinking, un modello di ragionamento che opera interamente sul dispositivo. Questo modello, addestrato specificamente per il ragionamento conciso, genera tracce di pensiero interne prima di fornire risposte, consen...

2026-01-20 Phoronix

Linux 7.0: aggiornamenti firmware GPU Intel anche su sistemi non-x86

In arrivo con Linux 7.0 il supporto per aggiornare il firmware delle GPU discrete Intel su sistemi diversi da x86. Le patch necessarie sono pronte per essere integrate nel prossimo ciclo del kernel Linux 6.20~7.0, ampliando la compatibilità hardware ...

#Hardware
2026-01-20 LocalLLaMA

GLM 4.7 Flash GGUF disponibile grazie a Bartowski

Bartowski ha rilasciato GLM 4.7 Flash GGUF, una nuova versione del modello linguistico. I file sono disponibili su Hugging Face. La comunità di LocalLLaMA discute attivamente le implicazioni e le potenzialità di questa nuova consegna. L'iniziativa mi...

2026-01-20 LocalLLaMA

Unsloth rilascia GLM-4.7-Flash in formato GGUF

Unsloth ha reso disponibile il modello linguistico GLM-4.7-Flash nel formato GGUF (GPT-Generated Unified Format). Questo formato facilita l'utilizzo del modello su diverse piattaforme hardware, rendendolo accessibile a un pubblico più ampio di svilup...

#Hardware
2026-01-20 LocalLLaMA

Disponibile GLM-4.7-Flash-GGUF per l'inferenza locale di LLM

È stata rilasciata una nuova versione di GLM-4.7-Flash-GGUF, un modello linguistico di grandi dimensioni (LLM) progettato per l'inferenza locale. Questa implementazione, disponibile su Hugging Face, permette agli utenti di eseguire il modello diretta...

#Hardware
2026-01-19 LocalLLaMA

GLM 4.7 Flash: supporto ufficiale integrato in llama.cpp

Il supporto ufficiale per GLM 4.7 Flash è stato integrato in llama.cpp. Questa integrazione, segnalata su Reddit, permette agli sviluppatori di sfruttare al meglio le capacità di GLM 4.7 Flash all'interno dell'ambiente llama.cpp, aprendo nuove possib...

#Hardware #LLM On-Premise
2026-01-19 LocalLLaMA

Z-AI (GLM): Sviluppatori scelgono la via 'aggressiva'

Gli sviluppatori di Z-AI (GLM) hanno intrapreso una strategia di sviluppo definita 'aggressiva'. Un post su Reddit evidenzia questa scelta, suggerendo una competizione diretta con altri team, in particolare quelli di Qwen. La discussione online si co...

2026-01-19 LocalLLaMA

GLM-4.7-Flash: nuovo modello linguistico open-source su Hugging Face

È disponibile su Hugging Face il modello linguistico GLM-4.7-Flash. La notizia è stata diffusa su Reddit, aprendo un filone di discussione nella comunità LocalLLaMA. Il modello open-source promette nuove opportunità per lo sviluppo di applicazioni di...

2026-01-19 LocalLLaMA

Agente browser on-device con Qwen: demo in locale su Chrome

Una nuova demo mostra un agente browser locale, basato su Web GPU Liquid LFM e sui modelli Qwen di Alibaba, in esecuzione come estensione di Chrome. L'agente apre 'All in Podcast' su YouTube. Il codice sorgente è disponibile su GitHub per chi volesse...

#Hardware
2026-01-19 LocalLLaMA

Crediti GPU gratuiti per testare piattaforma di training LLM

Un piccolo team offre crediti di calcolo gratuiti per la sua piattaforma GPU, in cambio di feedback sull'utilizzo. Le GPU disponibili includono RTX 5090 e Pro 6000, adatte per l'inferenza di modelli linguistici di grandi dimensioni (LLM), il fine-tun...

#Hardware #Fine-Tuning
2026-01-19 The Register AI

Open source: la nuova missione è ricostruire il settore tech europeo

L'Europa, nota per un settore tecnicico iper-regolamentato, potrebbe trovare nell'open source una via per ricostruire e rafforzare la propria infrastruttura tecnicica. L'adozione di soluzioni aperte potrebbe favorire l'innovazione e ridurre la dipend...

2026-01-19 LocalLLaMA

OpenAI dovrebbe rilasciare GPT-4o in open source? Un'opinione

Un utente ha suggerito che OpenAI dovrebbe rilasciare il modello GPT-4o in open source. Nonostante le preoccupazioni relative alla sicurezza, l'iniziativa potrebbe coprire le attività open source di OpenAI per i prossimi mesi e consentirebbe di rispa...

#Fine-Tuning
2026-01-18 LocalLLaMA

Ministral 3 Reasoning Heretic: Modelli LLM senza censure e GGUF

Disponibili i modelli Ministral 3 Reasoning Heretic, versioni non censurate con capacità di visione. L'utente coder3101 ha rilasciato i modelli quantizzati (Q4, Q5, Q8, BF16) con MMPROJ per funzionalità di visione, accelerando i tempi di rilascio per...

#Hardware
2026-01-17 LocalLLaMA

Benvenuti nel mondo Local Llama: focus sui bot

La comunità online Local Llama accoglie i nuovi utenti ribadendo il suo impegno verso i bot. La piattaforma si concentra sullo sviluppo e l'utilizzo di modelli linguistici di grandi dimensioni (LLM) in locale, offrendo agli appassionati un ambiente c...

2026-01-17 Phoronix

Intel potenzia LLM-Scaler-vLLM con supporto esteso ai modelli linguistici

Intel ha aggiornato LLM-Scaler-vLLM, un'iniziativa open source nata dal Project Battlematrix. Questo strumento, basato su Docker, facilita la distribuzione di carichi di lavoro di intelligenza artificiale generativa (GenAI) su schede grafiche Intel B...

#Hardware #LLM On-Premise #Fine-Tuning
2026-01-17 Phoronix

OpenBLAS 0.3.31: ottimizzazioni per RISC-V e ARM64

È disponibile la versione 0.3.31 di OpenBLAS, una libreria open-source ottimizzata per Basic Linear Algebra Subprograms (BLAS). Questa release introduce nuove estensioni e miglioramenti significativi per architetture RISC-V e ARM64, offrendo prestazi...

← Torna ai Topic