Topic / Trend Rising

Modelli e Strumenti AI Open Source

L'ecosistema AI open source è in piena espansione, con nuovi modelli, strumenti e framework rilasciati regolarmente. Questa tendenza sta democratizzando l'accesso alla tecnicia AI e promuovendo la collaborazione tra sviluppatori e ricercatori.

Detected: 2026-02-20 · Updated: 2026-03-22

Articoli Correlati

2026-03-22 LocalLLaMA

Qwen3.5-122B-A10B: versione non censurata e quantization K_P

Disponibile una versione non censurata di Qwen3.5-122B-A10B, progettata per evitare rifiuti nelle consegne. Introduce le nuove quantizzazioni K_P, che offrono un miglioramento della qualità con un incremento contenuto delle dimensioni del file. Sono ...

#LLM On-Premise #DevOps
2026-03-20 LocalLLaMA

Nvidia Nemotron Cascade 2 30B: modello linguistico open-source promettente

Nvidia ha rilasciato Nemotron Cascade 2 30B A3B, un modello linguistico basato su Nemotron 3 Nano Base. I risultati preliminari indicano prestazioni competitive con modelli da 120B in compiti matematici e di generazione di codice. Il modello è dispon...

#Hardware #Fine-Tuning
2026-03-19 LocalLLaMA

Devstral Small 2: LLM da 24B sottovalutato per assistenza allo sviluppo

Un utente con una GPU GeForce RTX 4060 Ti da 16GB ha testato diversi modelli linguistici di grandi dimensioni (LLM) per l'assistenza allo sviluppo, concentrandosi sulla comprensione e l'estensione di codice esistente per reinforcement learning. Devst...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Phoronix

AMD prepara aggiornamenti GFX12.1 per Linux 7.1

AMD ha inviato un nuovo set di modifiche ai driver grafici del kernel AMDGPU e ai driver di calcolo del kernel AMDKFD a DRM-Next in vista della finestra di integrazione di Linux 7.1 del prossimo mese. Gli aggiornamenti includono abilitazioni per GFX1...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Ars Technica AI

OpenAI acquisisce Astral, società di sviluppo Python open source

OpenAI ha annunciato l'acquisizione di Astral, nota per i tool di sviluppo Python open source come uv e Ruff. L'integrazione nel team Codex mira a migliorare le capacità dell'AI nell'intero ciclo di vita dello sviluppo software, consentendo agli agen...

#LLM On-Premise #DevOps
2026-03-19 Phoronix

GNUnet 0.27: nuova versione del framework P2P decentralizzato

È disponibile la versione 0.27 di GNUnet, un framework software libero per la costruzione di reti peer-to-peer decentralizzate. La nuova release include diverse novità, ma gli sviluppatori avvertono che il suo utilizzo potrebbe richiedere una certa t...

#LLM On-Premise #DevOps
2026-03-19 LocalLLaMA

ACE-Step 1.5: generazione musicale con C++17 e GGML

Implementazione in C++17 di ACE-Step 1.5 per la generazione musicale, basata su GGML. Il codice è progettato per essere eseguito su diverse piattaforme, tra cui CPU, CUDA, ROCm, Metal e Vulkan, offrendo flessibilità di deployment per diversi ambienti...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Phoronix

Mozilla rilancia Llamafile 0.10: LLM più accessibili

Mozilla ha rilasciato Llamafile 0.10, aggiornamento che segnala la continua attività nel settore dell'intelligenza artificiale. Questa release arriva dopo un periodo di incertezza sul futuro del progetto, simile a quanto accaduto con DeepSpeech. L'ob...

#LLM On-Premise #DevOps
2026-03-19 AI News

NVIDIA: toolkit open source per agenti AI enterprise più sicuri

NVIDIA ha presentato un toolkit open source per semplificare lo sviluppo e il deployment di agenti AI autonomi in ambito enterprise. L'obiettivo è fornire alle aziende gli strumenti per controllare i dati e la responsabilità nell'utilizzo di questi a...

#Hardware #LLM On-Premise #DevOps
2026-03-19 LocalLLaMA

KoboldCpp: voice cloning e generazione musicale nativa

KoboldCpp celebra il suo terzo anniversario con il rilascio della versione 1.110, che introduce nuove funzionalità tra cui il voice cloning tramite Qwen3 TTS e il supporto nativo Ace Step 1.5 per la generazione di musica. L'aggiornamento è disponibil...

#LLM On-Premise #DevOps
2026-03-18 LangChain Blog

Polly di LangSmith: l'AI Assistant per il Debug dei Modelli

LangSmith ha rilasciato la disponibilità generale di Polly, un assistente AI progettato per semplificare il debug degli agenti. Polly aiuta ad analizzare tracce complesse, individuare errori e suggerire soluzioni, integrandosi in vari flussi di lavor...

#Fine-Tuning
2026-03-18 The Register AI

Systemd 260 abbandona SysV e detta le regole all'AI

L'ultima versione del sistema init Linux Systemd abbandona il supporto per gli script init SysV e introduce funzionalità di ausilio all'AI nello sviluppo. La release promette di suscitare nuove reazioni nel mondo Linux.

#LLM On-Premise #DevOps
2026-03-18 LocalLLaMA

Omnicoder: LLM Uncensored Distillato da Claude Opus per Inference Locale

È disponibile un nuovo modello linguistico di grandi dimensioni (LLM) chiamato Omnicoder, distillato da Claude Opus e basato sull'architettura Qwen 3.5 9B. Questo modello, creato tramite un processo di merge, si distingue per l'assenza di censure e l...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-17 LocalLLaMA

Nuovi modelli LLM open source: Skyfall, Valkyrie e Anubis

Sono stati rilasciati silenziosamente quattro nuovi modelli linguistici open source sviluppati da TheLocalDrummer: Skyfall 31B v4.1, Valkyrie 49B v2.1, Anubis 70B v1.2 e Anubis Mini 8B v1 (basato su Llama 3.3). Questi modelli rappresentano aggiorname...

#LLM On-Premise #DevOps
2026-03-17 LocalLLaMA

Unsloth Studio: interfaccia web open-source per LLM in locale

Unsloth Studio è una nuova interfaccia web open-source che permette di addestrare ed eseguire modelli linguistici di grandi dimensioni (LLM) direttamente in locale. Supporta diversi sistemi operativi, formati di modelli e offre strumenti per l'ottimi...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-17 LocalLLaMA

Unsloth Studio: un'alternativa a LM Studio per LLM locali?

Unsloth ha annunciato Unsloth Studio, un runner con licenza Apache compatibile con Llama.cpp. Questo potrebbe rappresentare una svolta per gli utenti di LLM che operano in locale, offrendo un'alternativa a LM Studio nell'ecosistema GGUF.

#LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia rinnova la roadmap data center: CPU Rosa, GPU Feynman e NVLink ottico

Nvidia aggiorna la sua roadmap per i data center, introducendo la CPU Rosa e le GPU Feynman. L'azienda punta su NVLink ottico e Groq LPUs con NVFP4, oltre a nuove versioni di NVLink. Queste innovazioni promettono di migliorare significativamente le p...

#Hardware #LLM On-Premise #DevOps
2026-03-17 Phoronix

Big Tech investe 12,5 milioni di dollari per la sicurezza open source

La Linux Foundation ha annunciato finanziamenti per 12,5 milioni di dollari da parte di aziende come OpenAI, Microsoft e Google. L'obiettivo è rafforzare la sicurezza dell'ecosistema open source, cruciale per l'innovazione e l'infrastruttura digitale...

#LLM On-Premise #DevOps
2026-03-17 Phoronix

Intel Compute Runtime: Ottimizzazioni OpenCL e Level Zero

Disponibile la nuova versione 26.09.37435.1 di Intel Compute Runtime, stack open-source per OpenCL e Level Zero. Questa release introduce miglioramenti prestazionali e nuove funzionalità per hardware grafico Intel su sistemi Windows e Linux.

#Hardware #LLM On-Premise #DevOps
2026-03-16 The Register AI

Nvidia presenta NemoClaw basato su OpenClaw per la sicurezza

Nvidia ha annunciato NemoClaw, un sistema basato su OpenClaw, descritto dal CEO come il sistema operativo per l'intelligenza artificiale personale. L'annuncio sottolinea l'importanza crescente della sicurezza e del controllo nell'ambito dell'AI, spin...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Phoronix

Driver open-source PowerVR Vulkan di Imagination supporta Zink OpenGL

Imagination Tech ha investito in un driver grafico open-source per il kernel DRM e in un driver PowerVR Vulkan in Mesa. L'attenzione si è concentrata esclusivamente sul driver PowerVR Vulkan, con l'obiettivo di utilizzare l'implementazione Zink OpenG...

#Hardware
2026-03-16 The Register AI

FSF critica l'addestramento centralizzato dei modelli AI

La Free Software Foundation (FSF) esprime preoccupazioni sull'utilizzo di materiali proprietari nell'addestramento dei modelli AI, auspicando un approccio più aperto e decentralizzato nello sviluppo dell'intelligenza artificiale. L'organizzazione cri...

#LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

PaddleOCR-VL integrato in llama.cpp per inference locale

Il modello open-source multilingue PaddleOCR-VL è stato integrato in llama.cpp. Questa integrazione permette di eseguire l'inference del modello direttamente su hardware locale, aprendo nuove possibilità per applicazioni OCR con requisiti di privacy ...

#LLM On-Premise #DevOps
2026-02-20 Phoronix

Vulkan 1.4.344: aggiornamenti e nuova estensione da Valve

È disponibile Vulkan 1.4.344, l'ultimo aggiornamento di specifica per questa API grafica e di calcolo ad alte prestazioni. Oltre a una serie di correzioni e chiarimenti, Vulkan 1.4.344 introduce una nuova estensione fornita dagli ingegneri di Valve.

#Hardware #LLM On-Premise #DevOps
2026-02-19 LocalLLaMA

Taalas dimostra inference Llama 3.1 8B a 16.000 tok/s su ASIC

La startup Taalas ha rilasciato una demo gratuita di chatbot e un endpoint API basati su un chip ASIC proprietario. L'obiettivo è dimostrare l'inference ad alta velocità di modelli LLM, raggiungendo 16.000 token al secondo con Llama 3.1 8B. L'azienda...

#Hardware #LLM On-Premise #DevOps
2026-02-19 LocalLLaMA

Llama.cpp: supporto per quantizzazioni IQ*_K e IQ*_KS

Una pull request a llama.cpp introduce il supporto per gli schemi di quantization IQ*_K e IQ*_KS, derivati dal progetto ik_llama.cpp. Questa implementazione potrebbe portare a modelli più compatti ed efficienti, particolarmente rilevante per l'infere...

#LLM On-Premise #DevOps
2026-02-19 Phoronix

AMD semplifica la portabilità di codice C++ su GPU con hipThreads

AMD ha annunciato hipThreads, una libreria di concorrenza in stile C++ per GPU AMD, progettata per semplificare la portabilità del codice C++. Questa nuova aggiunta all'ecosistema ROCm/HIP mira a rendere più agevole lo sviluppo di applicazioni ad alt...

#Hardware #LLM On-Premise #DevOps
2026-02-19 LocalLLaMA

TextWeb: Rendering di pagine web in formato testo per agenti AI

TextWeb è un progetto open source che trasforma pagine web in griglie di testo di dimensioni ridotte (2-5KB), ideali per l'elaborazione da parte di agenti AI. Invece di screenshot da 1MB, TextWeb utilizza MCP, LangChain e CrewAI per una rappresentazi...

#LLM On-Premise #DevOps
2026-02-18 LocalLLaMA

Lemonade: API Ollama senza usare Ollama?

Lemonade Server permette di sfruttare le funzionalità dell'API di Ollama senza utilizzare direttamente Ollama. L'integrazione semplifica la gestione dei modelli e l'interazione con Open WebUI, offrendo un'alternativa per chi desidera flessibilità nel...

#Hardware #LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Sarvam AI punta sull'open source con nuovi modelli linguistici

Il laboratorio indiano Sarvam AI ha presentato una nuova serie di modelli, tra cui modelli linguistici con 30 e 105 miliardi di parametri, un modello text-to-speech, uno speech-to-text e un modello di visione per l'analisi di documenti. Una scommessa...

#LLM On-Premise #DevOps
2026-02-17 LocalLLaMA

Cohere rilascia Tiny Aya: modello multilingua da 3.35B parametri

Cohere Labs ha presentato Tiny Aya, un modello linguistico di piccole dimensioni (3.35 miliardi di parametri) pre-addestrato e open source, ottimizzato per rappresentazioni multilingue efficienti in oltre 70 lingue, incluse quelle con meno risorse. I...

#Fine-Tuning #DevOps
2026-02-15 LocalLLaMA

Modelli open-source dominano la classifica di OpenRouter

Per la prima volta, i primi quattro modelli nella classifica di OpenRouter sono tutti open-weight. Questo segna un potenziale punto di svolta per l'adozione e la fiducia nei modelli di linguaggio open-source, offrendo alternative valide ai modelli pr...

#LLM On-Premise #DevOps
2026-02-15 LocalLLaMA

JoyAI-LLM-Flash: nuovo modello LLM open source su Hugging Face

È disponibile su Hugging Face il modello linguistico di grandi dimensioni (LLM) open source JoyAI-LLM-Flash. La comunità LocalLLaMA su Reddit ha condiviso link e immagini relative al modello, aprendo la strada a discussioni e potenziali utilizzi in a...

#LLM On-Premise #DevOps
2026-02-14 LocalLLaMA

Qwen3-TTS.cpp: Inference GGML ottimizzata per voice cloning in locale

Implementazione leggera in GGML di Qwen3-TTS 0.6B, focalizzata sull'inference rapida e sull'utilizzo efficiente della memoria. L'ottimizzazione con Metal backend e CoreML code predictor promette un incremento di velocità fino a 4 volte rispetto alla ...

#Hardware #LLM On-Premise #DevOps
2026-02-14 LocalLLaMA

Valutazione di LLM piccoli: l'importanza del parsing negli agenti locali

Un benchmark su 21 modelli linguistici di piccole dimensioni (LLM) rivela che la capacità di chiamare strumenti in locale dipende tanto dal modello quanto dalla precisione del parser utilizzato. I risultati evidenziano come modelli con meno di 4 mili...

#Hardware #LLM On-Premise #DevOps
2026-02-14 LocalLLaMA

Sviluppo Locale con Modelli LLM: Strumenti e Esperienze

Una panoramica di strumenti per lo sviluppo di applicazioni con modelli linguistici di grandi dimensioni (LLM) eseguiti in locale, anziché su cloud. Vengono presentati diversi framework e IDE che facilitano l'integrazione di LLM nei progetti di svilu...

#LLM On-Premise #DevOps
2026-02-13 LocalLLaMA

GPT-OSS 120B: modello open-source non censurato per inference locale

È disponibile una versione non censurata di GPT-OSS 120B, un modello linguistico open-source con 117 miliardi di parametri totali e una finestra di contesto di 128K. Il modello è in formato MXFP4 e può essere eseguito su hardware consumer o server do...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic