Topic / Trend Rising

Sviluppo e Implementazione di Modelli AI

Il panorama dei modelli AI è in rapida evoluzione, con nuovi modelli rilasciati frequentemente e quelli esistenti ottimizzati per prestazioni ed efficienza. C'è una crescente attenzione all'inference LLM locale, ai modelli open-source e ai modelli specializzati per compiti specifici.

Detected: 2026-02-07 · Updated: 2026-02-07

Articoli Correlati

2026-02-07 LocalLLaMA

Kimi-Linear-48B-A3B e Step3.5-Flash disponibili per llama.cpp

Sono state rilasciate le versioni di Kimi-Linear-48B-A3B e Step3.5-Flash compatibili con llama.cpp. Al momento non sono ancora disponibili i file GGUF ufficiali, ma la community sta già lavorando alla loro creazione. La disponibilità di questi modell...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Kernel open-source per attention: 1 milione di token in 1GB di VRAM

Geodesic Attention Engine (GAE) è un kernel open-source che promette di ridurre drasticamente il consumo di memoria per modelli di linguaggio di grandi dimensioni. Con GAE, è possibile gestire 1 milione di token con solo 1GB di VRAM, ottenendo un ris...

#Hardware #LLM On-Premise #DevOps
2026-02-07 ArXiv cs.AI

Intelligenza Artificiale 'Strana': Oltre i Modelli Lineari

Un nuovo studio contesta l'idea di un progresso lineare nell'IA, introducendo i concetti di 'intelligenza familiare' e 'intelligenza strana'. I sistemi di IA potrebbero combinare capacità sovrumane con errori sorprendenti, sfidando le aspettative e r...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Nemo 30B: Modello LLM con finestra di contesto da 1M su singola RTX 3090

Un utente ha testato il modello linguistico Nemo 30B, raggiungendo una finestra di contesto di oltre 1 milione di token su una singola GPU RTX 3090. L'utente ha riscontrato una velocità di 35 token al secondo, sufficiente per riassumere libri o docum...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Google delinea 5 trend chiave per gli agenti AI nel 2026

Secondo DIGITIMES, Google ha identificato cinque tendenze principali che guideranno la crescita degli agenti di intelligenza artificiale entro il 2026. Queste tendenze influenzeranno lo sviluppo, l'adozione e l'integrazione degli agenti AI in vari se...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Waymo usa Genie 3 per simulazioni di guida autonoma realistiche

Waymo, la società di guida autonoma di Google, sta utilizzando il modello Genie 3 di DeepMind per creare ambienti di simulazione iper-realistici. Questo permette di addestrare l'intelligenza artificiale dei veicoli in situazioni rare o mai incontrate...

2026-02-06 TechCrunch AI

Gli agenti AI potrebbero davvero sostituire gli avvocati?

Il recente rilascio di Opus 4.6 ha generato nuove discussioni sulle capacità degli agenti AI, sollevando interrogativi sul loro potenziale impatto in settori professionali come quello legale. Le implicazioni di tali progressi meritano un'attenta valu...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

GLM-5 in fase di test su OpenRouter

Il modello linguistico GLM-5 è attualmente in fase di test sulla piattaforma OpenRouter. Questa notizia, proveniente da una discussione su Reddit, indica un potenziale ampliamento dell'offerta di modelli disponibili per gli utenti di OpenRouter, apre...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Modello sperimentale con attenzione subquadratica: fino a 10M di contesto

Rilasciato un modello sperimentale da 30B con meccanismo di attenzione subquadratica, scalando a O(L^(3/2)). Permette di gestire contesti fino a 10 milioni di token su una singola GPU, mantenendo velocità di decodifica pratiche. Include server compat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 OpenAI Blog

Localizzazione dell'AI: l'approccio di OpenAI per un'AI globale

OpenAI illustra il suo approccio alla localizzazione dell'intelligenza artificiale, spiegando come i modelli di frontiera condivisi globalmente possono essere adattati a lingue, leggi e culture locali senza compromettere la sicurezza. L'obiettivo è r...

#LLM On-Premise #DevOps
2026-02-06 MIT Technology Review

Moltbook: teatro dell'AI o sguardo al futuro?

Moltbook, una piattaforma sociale per agenti AI, ha rapidamente guadagnato popolarità, generando milioni di interazioni tra bot. L'esperimento solleva interrogativi sull'autonomia reale degli agenti e sui rischi legati alla gestione di dati sensibili...

#LLM On-Premise #DevOps
2026-02-06 AI News

Scalabilità degli agenti AI: separare logica e ricerca

Un nuovo framework, ENCOMPASS, separa la logica di flusso di lavoro degli agenti AI dalle strategie di inference. Questo approccio, sviluppato da Asari AI, MIT CSAIL e Caltech, mira a ridurre il debito tecnico e migliorare le prestazioni, consentendo...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

West Sussex: ERP Oracle finanziato con vendita di asset

Il consiglio della contea inglese di West Sussex sta triplicando la vendita di proprietà per finanziare il proprio progetto ERP basato su Oracle. L'iniziativa, definita "trasformativa", ha visto il budget iniziale superato, portando a questa decision...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

LLM a 10 token/s su un i3 di 8a generazione: si può fare!

Un utente dimostra come far girare un modello linguistico di grandi dimensioni (LLM) da 16 miliardi di parametri su un laptop HP ProBook del 2018 con processore Intel i3 di ottava generazione e 16GB di RAM. Ottimizzando l'uso della iGPU e sfruttando ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Apple integra agenti AI in Xcode per incrementare la produttività

Apple ha annunciato l'integrazione di agenti di intelligenza artificiale direttamente in Xcode, il suo ambiente di sviluppo integrato (IDE). L'obiettivo è quello di migliorare la produttività degli sviluppatori, automatizzando alcune fasi del process...

2026-02-06 LocalLLaMA

Inference LLM: Ottimizzazione e prestazioni DeepSpeed

Un utente condivide un'immagine relativa all'ottimizzazione dell'inference di modelli linguistici di grandi dimensioni (LLM) tramite DeepSpeed. L'immagine suggerisce un'analisi delle prestazioni e delle configurazioni per migliorare la velocità e l'e...

#Hardware
2026-02-06 ArXiv cs.CL

BioACE: Framework automatico per valutare risposte biomediche

BioACE è un nuovo framework automatizzato per la valutazione della qualità delle risposte generate da modelli linguistici di grandi dimensioni (LLM) in ambito biomedico. Il sistema verifica la correttezza delle risposte e delle citazioni, valutando c...

#RAG
2026-02-06 ArXiv cs.LG

Analisi causale per rafforzare la sicurezza degli LLM

Una nuova ricerca propone un framework, Causal Analyst, per identificare le cause dirette delle vulnerabilità (jailbreak) nei modelli linguistici di grandi dimensioni (LLM). Il sistema utilizza l'analisi causale per migliorare sia gli attacchi che le...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 LocalLLaMA

Qwen3-235B: un utente ne esalta le prestazioni in locale

Un utente ha condiviso la sua esperienza positiva con il modello linguistico Qwen3-235B, eseguito su un sistema desktop. L'utente ha sottolineato l'accuratezza del modello e la sua utilità, al punto da preferirlo a un abbonamento commerciale a ChatGP...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Parallelismo tensoriale in Llama.cpp: un aggiornamento promettente

Una pull request introduce il parallelismo tensoriale in Llama.cpp, aprendo la strada a inferenze più rapide e efficienti su modelli linguistici di grandi dimensioni. La comunità accoglie con favore questo sviluppo, che potrebbe migliorare significat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Google: l'AI rivitalizza la ricerca, non la soppianta

Secondo Digitimes, i recenti progressi di Google nell'integrazione dell'intelligenza artificiale nel motore di ricerca dimostrano come l'AI stia potenziando, e non sostituendo, le funzionalità di ricerca esistenti. L'azienda sta ottenendo significati...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Gemma 4: Google continua lo sviluppo del modello linguistico?

La community di LocalLLaMA si interroga sul futuro di Gemma 4, chiedendosi se Google stia ancora investendo nello sviluppo del modello linguistico. Nonostante i progressi nel settore, il destino di Gemma 4 rimane incerto.

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

SoproTTS v1.5: clonazione vocale zero-shot con soli 100 dollari

SoproTTS v1.5 è un modello TTS (text-to-speech) da 135 milioni di parametri che offre clonazione vocale zero-shot. Addestrato con circa 100 dollari su una singola GPU, il modello raggiunge una velocità di esecuzione di circa 20 volte il tempo reale s...

#Hardware #LLM On-Premise #DevOps
2026-02-05 The Register AI

OpenAI lancia Frontier per agenti software enterprise

OpenAI ha annunciato Frontier, una piattaforma destinata a supportare le aziende nell'implementazione di agenti software basati su modelli avanzati. L'iniziativa mira a facilitare l'adozione di soluzioni di intelligenza artificiale nel contesto enter...

#LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

OpenAI rilancia il modello di sviluppo agentico Codex

OpenAI ha annunciato un aggiornamento del suo modello di sviluppo agentico Codex, progettato per accelerare le capacità di sviluppo. La notizia arriva poco dopo un annuncio simile da parte di Anthropic, segnalando una competizione crescente nel setto...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5 abbatte i costi della sintesi proteica acellulare

Un laboratorio autonomo, combinando GPT-5 di OpenAI con l'automazione cloud di Ginkgo Bioworks, ha ridotto i costi della sintesi proteica acellulare del 40% tramite sperimentazione a ciclo chiuso. Questo approccio automatizzato promette di accelerare...

#LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

Elon Musk punta sui data center orbitali per l'AI

Sembra concretizzarsi il piano di Elon Musk per la creazione di cluster di data center orbitali dedicati all'intelligenza artificiale. L'iniziativa potrebbe aprire nuove frontiere per l'elaborazione dati nello spazio, ma solleva anche interrogativi t...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: un agente nativo per attività tecniche complesse

Presentato GPT-5.3-Codex, un agente basato su Codex progettato per affrontare attività tecniche complesse nel mondo reale. Combina elevate prestazioni di programmazione con capacità di ragionamento generale per supportare progetti a lungo termine.

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: nuovo modello per la generazione di codice

Presentato GPT-5.3-Codex, un modello avanzato per la generazione di codice che combina le prestazioni di GPT-5.2-Codex con capacità di ragionamento e conoscenza professionale superiori. Il modello si posiziona come uno dei più avanzati nel suo genere...

#LLM On-Premise #DevOps
2026-02-05 PyTorch Blog

PyTorch per sistemi di raccomandazione: inference ad alta efficienza

Meta ha sviluppato un sistema di inference per raccomandazioni basato su PyTorch, cruciale per tradurre la ricerca avanzata in servizi di produzione. L'articolo descrive il flusso di lavoro, dalla definizione del modello addestrato alle trasformazion...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

DeepBrainz-R1: modelli compatti per workflow agentici

DeepBrainz ha rilasciato DeepBrainz-R1, una famiglia di modelli linguistici di dimensioni ridotte (4B, 2B, 0.6B) focalizzati sul ragionamento per workflow agentici. Ottimizzati per il ragionamento multi-step e la stabilità nel tool-calling, questi mo...

#LLM On-Premise #DevOps
2026-02-05 Phoronix

Debian limita l'accesso ai dati CI a causa dello scraping da parte di LLM

L'infrastruttura di integrazione continua (CI) di Debian ha limitato l'accesso pubblico ai suoi dati a causa dell'eccessivo scraping da parte di bot utilizzati per addestrare modelli linguistici di grandi dimensioni (LLM). Il carico generato da quest...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

gWorld: modello 8B batte Llama 4 da 402B generando codice web

Trillion Labs e KAIST AI hanno presentato gWorld, un modello di mondo visuale open-weight per interfacce grafiche mobile. gWorld, disponibile nelle versioni 8B e 32B, genera codice web eseguibile anziché pixel, superando in accuratezza modelli più gr...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 LocalLLaMA

Build non ufficiali di ik_llama.cpp disponibili per vari sistemi

Sono disponibili build precompilate non ufficiali di ik_llama.cpp per macOS, Ubuntu e Windows. Queste build semplificano l'adozione del progetto, evitando agli utenti la compilazione manuale. Il creatore incoraggia comunque l'uso della compilazione d...

#LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

Fundamental raccoglie 255 milioni di dollari per l'analisi di big data

Fundamental ha sviluppato un nuovo modello fondazionale per estrarre valore dai dati strutturati aziendali. L'azienda ha raccolto 255 milioni di dollari in un round di finanziamento di Serie A per potenziare la sua piattaforma di analisi.

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

OpenAI Frontier: piattaforma enterprise per agenti AI

OpenAI presenta Frontier, una piattaforma enterprise progettata per la creazione, il deployment e la gestione di agenti di intelligenza artificiale. Frontier offre funzionalità di contesto condiviso, onboarding, gestione dei permessi e governance cen...

#DevOps
2026-02-05 LocalLLaMA

vLLM-Omni: inference multimodale any-to-any con efficienza migliorata

Il team di vLLM ha presentato vLLM-Omni, un sistema progettato per modelli multimodali any-to-any che gestiscono testo, immagini, video e audio. L'architettura include la decomposizione del grafo basata su stage, il batching per stage e l'allocazione...

#Hardware #LLM On-Premise
2026-02-05 MIT Technology Review

Il grafico sull'IA che genera più fraintendimenti

Un grafico prodotto da METR, un'organizzazione no-profit di ricerca sull'IA, è diventato un punto di riferimento per valutare i progressi dei modelli linguistici di grandi dimensioni (LLM). Tuttavia, la sua interpretazione è spesso fonte di confusion...

#LLM On-Premise #DevOps
2026-02-05 ArXiv cs.AI

LLM: ragionamento potenziato per problemi matematici

Un nuovo metodo, Iteratively Improved Program Construction (IIPC), migliora le capacità di ragionamento matematico dei modelli linguistici di grandi dimensioni (LLM). IIPC affina iterativamente le catene di ragionamento programmatico, combinando il f...

2026-02-05 LocalLLaMA

Google: attenzione sequenziale per modelli AI più efficienti

Google Research ha presentato una nuova tecnica, chiamata attenzione sequenziale, per rendere i modelli di intelligenza artificiale più leggeri e veloci senza compromettere l'accuratezza. L'innovazione promette di ridurre i costi computazionali e mig...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Codag: visualizzare i workflow LLM in VSCode

Uno sviluppatore ha creato Codag, un'estensione open source per VSCode che visualizza i workflow degli LLM direttamente nell'ambiente di sviluppo. Supporta diversi framework come OpenAI, Anthropic, Gemini, LangChain, LangGraph e CrewAI, oltre a vari ...

2026-02-04 LocalLLaMA

Qwen3-Coder-Next-FP8: un nuovo re per la generazione di codice?

Un utente di Reddit ha segnalato performance eccellenti del modello Qwen3-Coder-Next-FP8. La discussione si concentra sulla sua capacità di generazione di codice, suggerendo un potenziale miglioramento rispetto ad alternative esistenti. L'articolo or...

#Fine-Tuning
2026-02-04 The Next Web

Quando le macchine iniziano a parlarsi: il caso Moltbook

Un articolo esplora le implicazioni di Moltbook, un social network progettato esclusivamente per agenti AI. Solleva interrogativi sul comportamento autonomo dei sistemi di intelligenza artificiale e sulle potenziali conseguenze di interazioni non sup...

#LLM On-Premise #DevOps
2026-02-04 Phoronix

Intel prepara le patch Linux per le GPU Xe3P_LPG di Nova Lake P

Gli ingegneri Intel stanno attivamente lavorando al supporto per i processori Nova Lake di prossima generazione. Gli ultimi sviluppi includono l'abilitazione del supporto grafico Xe3P_LPG e funzionalità di visualizzazione correlate tramite nuove patc...

#Hardware #LLM On-Premise #DevOps
2026-02-04 Wired AI

Axiom: AI risolve problemi matematici rimasti aperti a lungo

La startup Axiom ha annunciato che la sua intelligenza artificiale è riuscita a trovare soluzioni a problemi matematici irrisolti da tempo. Questo risultato dimostra i progressi compiuti dalle capacità di ragionamento delle AI, aprendo nuove prospett...

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Correzione vettoriale per Qwen3Next in llama.cpp

Una pull request su llama.cpp introduce una correzione per il calcolo vettoriale `key_gdiff` nel modello Qwen3Next. La modifica, segnalata inizialmente su Reddit, mira a migliorare la precisione e l'efficienza del modello nell'ambito del progetto lla...

#LLM On-Premise #DevOps
2026-02-04 IEEE Spectrum

AlphaGenome: DeepMind interpreta il DNA non codificante con l'AI

DeepMind presenta AlphaGenome, uno strumento di deep learning per interpretare il DNA non codificante, quella parte del genoma che regola l'attività genica. AlphaGenome mira a migliorare la comprensione dei meccanismi biologici e accelerare la scoper...

#Fine-Tuning
2026-02-04 LocalLLaMA

Intern-S1-Pro: un nuovo modello linguistico di grandi dimensioni

È stato rilasciato Intern-S1-Pro, un modello linguistico di grandi dimensioni (LLM) con circa 1 trilione di parametri. Sembra essere una versione scalata del modello Qwen3-235B, con un'architettura basata su 512 esperti.

#Hardware #LLM On-Premise #DevOps
2026-02-04 Anthropic News

Claude: uno spazio per il pensiero

L'articolo esplora il concetto di Claude come ambiente ideale per la riflessione e l'elaborazione di idee. Sebbene i dettagli tecnici siano assenti, si può presumere che si tratti di una piattaforma o strumento software progettato per supportare proc...

#LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next: Quantization NVFP4 disponibile (45GB)

È disponibile una versione quantizzata di Qwen3-Coder-Next in formato NVFP4, con un peso di 45GB. Il modello è stato calibrato utilizzando il dataset ultrachat_200k, con una perdita di accuratezza dell'1.63% nel benchmark MMLU Pro+.

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-04 ArXiv cs.CL

STEMVerse: un framework per valutare il ragionamento STEM negli LLM

Un nuovo studio introduce STEMVerse, un framework diagnostico per analizzare le capacità di ragionamento scientifico, tecnicico, ingegneristico e matematico (STEM) dei modelli linguistici di grandi dimensioni (LLM). STEMVerse mira a superare i limiti...

#LLM On-Premise #DevOps
2026-02-04 ArXiv cs.LG

UNSO: Ottimizzazione Unificata Newton-Schulz per prestazioni stabili

Un nuovo approccio, chiamato UNSO (Unified Newton-Schulz Orthogonalization), mira a risolvere i problemi di efficienza e stabilità nell'iterazione Newton-Schulz, utilizzata in ottimizzatori come Muon e sulla varietà di Stiefel. Il metodo consolida la...

2026-02-04 DigiTimes

Jensen Huang conferma collaborazione con OpenAI e nuovi finanziamenti

Il CEO di NVIDIA, Jensen Huang, ha ribadito la solidità della partnership con OpenAI e confermato la partecipazione di NVIDIA al nuovo round di finanziamenti per l'azienda di intelligenza artificiale. La collaborazione continua a concentrarsi sull'in...

#Hardware #LLM On-Premise #DevOps
2026-02-03 LangChain Blog

Gestione del contesto per agenti AI complessi: tecniche e valutazioni

La gestione efficace del contesto è cruciale per gli agenti AI che operano su compiti complessi e di lunga durata, al fine di prevenire la perdita di informazioni rilevanti e gestire i limiti di memoria dei modelli linguistici di grandi dimensioni (L...

2026-02-03 Anthropic News

ServiceNow adotta Claude per applicazioni e produttività

ServiceNow ha scelto Claude, il modello linguistico di Anthropic, per potenziare le proprie applicazioni rivolte ai clienti e incrementare la produttività interna. L'integrazione mira a migliorare l'efficienza operativa e l'esperienza utente attraver...

2026-02-03 Anthropic News

Xcode di Apple supporta ora l'SDK Claude Agent

L'ambiente di sviluppo integrato (IDE) Xcode di Apple ora supporta l'SDK Claude Agent. Questa integrazione potrebbe semplificare lo sviluppo di applicazioni che sfruttano le capacità di Claude.

2026-02-03 LocalLLaMA

ACE-Step-1.5: modello open source per audio generativo

È stato rilasciato ACE-Step-1.5, un modello open source per la generazione di audio con licenza MIT. Le sue performance si avvicinano a quelle di piattaforme commerciali come Suno. Il modello supporta LoRA e offre funzionalità di cover e repainting. ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-03 Ars Technica AI

Xcode 26.3 supporta Claude e Codex tramite Model Context Protocol

Apple ha annunciato Xcode 26.3, una nuova versione del suo IDE che supporta strumenti di agentic coding come Codex e Claude Agent. L'integrazione è resa possibile tramite Model Context Protocol (MCP), che consente agli agenti AI di interagire con str...

#LLM On-Premise #DevOps
2026-02-03 TechCrunch AI

Xcode integra agenti di Anthropic e OpenAI per la generazione di codice

La nuova versione di Xcode (26.3) introduce funzionalità di generazione di codice basate su agenti, grazie all'integrazione di Claude Agent di Anthropic e Codex di OpenAI. Questa novità mira a semplificare e velocizzare il processo di sviluppo per gl...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

ACE-Step 1.5: il modello open source che sfida Suno nella generazione musicale

È disponibile ACE-Step 1.5, un modello open source per la generazione di musica. Promette di superare Suno in termini di qualità, generando brani completi in circa 2 secondi su una GPU A100 e funzionando localmente su PC con 4GB di VRAM. Il codice, i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 LocalLLaMA

Qwen3-Coder-Next: nuovo modello linguistico per la programmazione

È stato rilasciato su Hugging Face Qwen3-Coder-Next, un modello linguistico sviluppato per applicazioni di programmazione. La sua disponibilità sulla piattaforma facilita l'accesso e l'integrazione da parte degli sviluppatori. Il modello promette di ...

#LLM On-Premise #DevOps
2026-02-03 Tech.eu

TaxNova: finanziamenti per automatizzare i crediti d'imposta R&S

La startup londinese TaxNova ha raccolto 1 milione di dollari in finanziamenti pre-seed per automatizzare le richieste di crediti d'imposta per attività di Ricerca e Sviluppo (R&S) per aziende tech. La piattaforma sfrutta l'AI per semplificare il pro...

#Hardware
2026-02-03 LocalLLaMA

GLM-5: il nuovo modello linguistico in arrivo a febbraio

È stato annunciato l'arrivo di GLM-5, un nuovo modello linguistico. La conferma è giunta tramite un post su X (ex Twitter) da Jietang. Ulteriori dettagli sulle capacità e sulle specifiche del modello sono attesi con il rilascio ufficiale.

#Hardware
2026-02-03 LocalLLaMA

GLM rilascia un modello OCR open source

GLM ha rilasciato un modello di riconoscimento ottico dei caratteri (OCR) open source. Il modello, denominato GLM-OCR, è disponibile su Hugging Face. Sembra essere composto da un modello di visione da 0.9 miliardi di parametri e un modello linguistic...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Qwen3-TTS Studio: clonazione vocale e podcasting locale

Un tecnico ha sviluppato Qwen3-TTS Studio, un'interfaccia per la clonazione vocale e la generazione automatica di podcast. Il sistema supporta 10 lingue, esegue la sintesi vocale localmente e può essere integrato con LLM locali per la generazione di ...

#LLM On-Premise #DevOps
2026-02-03 DigiTimes

Il CEO di Nvidia interverrà ai summit di Dassault Systèmes e Cisco

Il CEO di Nvidia, Jensen Huang, parteciperà ai prossimi eventi organizzati da Dassault Systèmes e Cisco. La sua presenza sottolinea l'importanza crescente dell'accelerazione hardware, e dell'intelligenza artificiale generativa in diversi settori indu...

#Hardware #LLM On-Premise
2026-02-03 Tech.eu

Polaron raccoglie 8 milioni $ per l'AI nella scienza dei materiali

Polaron, startup focalizzata sull'AI per la scienza dei materiali, ha raccolto 8 milioni di dollari. L'obiettivo è sviluppare un livello di intelligenza artificiale per la ricerca e sviluppo di materiali, automatizzando l'interpretazione delle micros...

2026-02-03 ArXiv cs.CL

MediGRAF: IA clinica ibrida per l'analisi sicura dei dati sanitari

Un nuovo sistema ibrido, MediGRAF, combina grafi di conoscenza e LLM per interrogare i dati sanitari dei pazienti. Il sistema integra dati strutturati e non strutturati, ottenendo un'accuratezza del 100% nelle risposte e un elevato livello di qualità...

#Fine-Tuning #RAG
2026-02-03 ArXiv cs.CL

PPoGA: Ragionamento avanzato con Knowledge Graph per LLM

Un nuovo framework, PPoGA, migliora la capacità dei modelli linguistici di grandi dimensioni (LLM) di rispondere a domande complesse basate su Knowledge Graph. Ispirato al controllo cognitivo umano, PPoGA introduce meccanismi di auto-correzione per s...

#LLM On-Premise #DevOps
2026-02-03 ArXiv cs.LG

OGD4All: LLM per accesso semplificato a dati governativi geospaziali

OGD4All è un framework che utilizza modelli linguistici di grandi dimensioni (LLM) per semplificare l'interazione dei cittadini con i dati geospaziali aperti del governo. Il sistema combina recupero semantico dei dati, ragionamento agentico per la ge...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-03 DigiTimes

Oracle pianifica raccolta fondi da 50 miliardi e possibili tagli

Oracle starebbe pianificando una raccolta fondi da 50 miliardi di dollari nel 2026. Contestualmente, l'azienda valuterebbe licenziamenti e la vendita di asset. La mossa arriva in un momento di forte competizione nel settore cloud e di investimenti cr...

2026-02-02 Ars Technica AI

OpenAI lancia l'app desktop Codex per macOS, sfida Claude Code

OpenAI ha rilasciato una app desktop per macOS dedicata a Codex, il suo strumento di sviluppo basato su modelli linguistici di grandi dimensioni (LLM). Questa mossa mira a competere con Claude Code di Anthropic, offrendo un'alternativa alle interfacc...

#LLM On-Premise #DevOps
2026-02-02 Tech.eu

Berget AI: 2,1 milioni di euro per l'AI sovrana in Svezia

La startup svedese Berget AI ha raccolto 2,1 milioni di euro per sviluppare una piattaforma AI full-stack che garantisca la sovranità dei dati. L'azienda si rivolge a sviluppatori che desiderano creare applicazioni AI utilizzando modelli linguistici ...

#LLM On-Premise #DevOps
2026-02-02 MIT Technology Review

AI aziendale: scegliere il caso d'uso iniziale per il successo

Molte aziende hanno investito frettolosamente nell'AI generativa, spesso senza ottenere i risultati sperati. Mistral AI suggerisce di partire da un caso d'uso "iconico": strategico, urgente, di forte impatto e fattibile. Questo approccio consente di ...

#LLM On-Premise #DevOps
2026-02-02 OpenAI Blog

Snowflake e OpenAI: intelligenza artificiale avanzata sui dati enterprise

Snowflake e OpenAI hanno stretto una partnership da 200 milioni di dollari per integrare capacità di intelligenza artificiale avanzata direttamente all'interno della piattaforma Snowflake. L'obiettivo è consentire lo sviluppo di agenti AI e l'estrazi...

#LLM On-Premise #DevOps
2026-02-02 AI News

ThoughtSpot: Agenti AI per analisi dati e decisioni

ThoughtSpot introduce una nuova generazione di agenti AI per l'analisi dei dati, con l'obiettivo di trasformare la business intelligence da passiva ad attiva. Questi agenti monitorano continuamente i dati, diagnosticano i cambiamenti e automatizzano ...

2026-02-02 DigiTimes

Anthropic lancia Cowork, Microsoft accelera lo sviluppo di agenti AI

Anthropic presenta Cowork, uno strumento AI per la collaborazione. Microsoft punta ad accelerare lo sviluppo di agenti AI. Entrambe le iniziative segnalano una crescente attenzione verso strumenti che migliorano la produttività e l'efficienza nei flu...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

ByteDance accelera su Doubao nell'affollata arena dell'IA

ByteDance intensifica gli sforzi nel campo dell'intelligenza artificiale con Doubao, in un contesto di crescente competizione. L'azienda punta a consolidare la propria posizione nel mercato, sfruttando le opportunità offerte dall'attuale panorama tec...

#LLM On-Premise #DevOps
2026-02-02 ArXiv cs.CL

MrRoPE: Un approccio unificato per estendere la finestra di contesto dei LLM

Un nuovo studio introduce MrRoPE, una formulazione generalizzata per estendere la finestra di contesto dei modelli linguistici di grandi dimensioni (LLM) basata su una prospettiva di conversione del sistema numerico. Questo approccio unifica diverse ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-02 ArXiv cs.AI

Six Sigma Agent: Affidabilità enterprise per LLM tramite consenso

Un nuovo studio introduce il Six Sigma Agent, un'architettura per migliorare l'affidabilità dei modelli linguistici di grandi dimensioni (LLM) in contesti enterprise. L'approccio si basa su task decomposition, esecuzione parallela su diversi LLM e un...

2026-02-02 LocalLLaMA

Step-3.5-Flash: performance superiore con meno parametri

Il modello Step-3.5-Flash, con un'architettura a parametri attivi ridotta (11B su 196B totali), dimostra performance superiori a DeepSeek v3.2 in benchmark di coding e agenti. DeepSeek v3.2 utilizza un'architettura con molti più parametri attivi (37B...

#Hardware #LLM On-Premise #DevOps
2026-02-01 TechCrunch AI

Indonesia rimuove (con riserva) il blocco a Grok di xAI

L'Indonesia ha revocato, seppur con delle condizioni, il divieto di accesso al chatbot Grok sviluppato da xAI. Il paese segue così l'esempio di Malesia e Filippine, che avevano già preso una decisione simile.

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

OLMO 3.5: in arrivo un modello ibrido per inference LLM efficiente

Il modello OLMO 3.5 di AI2 combina l'attenzione transformer standard con l'attenzione lineare tramite Gated Deltanet. Questo approccio ibrido mira a migliorare l'efficienza e ridurre l'utilizzo di memoria, mantenendo la qualità del modello. La serie ...

#Fine-Tuning
2026-02-01 LocalLLaMA

Falcon-H1-Tiny: modelli specializzati da 90M di parametri

TII rilascia Falcon-H1-Tiny, una serie di modelli con meno di 100 milioni di parametri che sfidano il dogma dello scaling. Questi modelli specializzati mostrano una minore tendenza alle allucinazioni rispetto ai modelli generalisti più grandi. Le var...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-01 LocalLLaMA

Modelli LLM non censurati disponibili su Hugging Face

Una panoramica dei modelli linguistici di grandi dimensioni (LLM) non censurati disponibili sulla piattaforma Hugging Face. La lista include varianti di GLM, GPT OSS, Gemma e Qwen, con diversi metodi di rimozione delle restrizioni. L'articolo fornisc...

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

vLLM-MLX su Apple Silicio: throughput superiore fino all'87%

Una recente ricerca confronta le prestazioni di vLLM-MLX su Apple Silicio con llama.cpp, evidenziando un throughput significativamente superiore. I risultati suggeriscono potenziali vantaggi nell'utilizzo di hardware Apple per inference di modelli li...

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

4chan e LLM: dati "sporchi" possono migliorare le consegne?

Un esperimento ha mostrato come l'addestramento di un modello linguistico su un dataset derivato da 4chan abbia portato a risultati inattesi. Il modello, Assistant_Pepe_8B, ha superato le prestazioni del modello base Nemotron di NVIDIA, nonostante fo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-01-31 LocalLLaMA

LLM e dati aziendali: una sfida complessa

Integrare modelli linguistici di grandi dimensioni (LLM) con i dati aziendali esistenti si rivela spesso più complesso del previsto. La difficoltà risiede nella scarsa preparazione dei dati, con metadati obsoleti e strutture intricate che portano a r...

2026-01-31 LocalLLaMA

Campionamento Scalabile: ragionamento LLM efficiente senza training

Un nuovo approccio, denominato Scalable Power Sampling, promette di migliorare le capacità di ragionamento dei modelli linguistici di grandi dimensioni (LLM) senza richiedere ulteriore training. Il metodo si basa sull'affinamento della distribuzione ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-31 LocalLLaMA

g-HOOT: Un Nuovo Articolo di Ricerca nel Mondo dell'AI

Un nuovo articolo di ricerca, disponibile su arXiv, denominato "g-HOOT in the Machine", ha catturato l'attenzione della comunità di LocalLLaMA. L'articolo, identificato tramite il link arXiv fornito, promette di esplorare nuove frontiere nel campo de...

← Torna ai Topic