Topic / Trend Rising

Progressi negli LLM e Mercato dell'AI Generativa

Lo sviluppo dei Large Language Models prosegue a ritmo serrato, con nuove versioni che offrono prestazioni migliorate, capacità multimodali e alternative open source. Questa evoluzione sta guidando il mercato dell'AI generativa, influenzando la creazione di contenuti, lo sviluppo web e i modelli di business.

Detected: 2026-04-29 · Updated: 2026-04-29

Articoli Correlati

2026-04-28 The Next Web

OpenAI: il mercato smentisce le rassicurazioni sulla crescita

Nonostante le rassicurazioni di OpenAI, che ha definito "clickbait" le voci su mancate previsioni di crescita e ha ribadito la piena sintonia tra i vertici, il mercato ha reagito con scetticismo. Un report del Wall Street Journal, che indicava il man...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 The Next Web

Nvidia Nemotron 3 Nano Omni: il modello multimodale per l'Edge Computing

Nvidia ha presentato Nemotron 3 Nano Omni, un modello AI multimodale open-weight da 30 miliardi di parametri, ottimizzato per l'inference su dispositivi edge. Grazie a un'architettura Mixture-of-Experts, attiva solo 3 miliardi di parametri per passat...

#Hardware #LLM On-Premise #DevOps
2026-04-28 LocalLLaMA

Mistral Medium in arrivo: un'analisi dei parametri e delle architetture

Mistral AI si prepara a rilasciare il suo modello "Medium", che si distinguerà per 128 miliardi di parametri. Questa nuova iterazione, che potrebbe adottare un'architettura densa o una versione meno sparsa di Mixture of Experts (MoE) rispetto a Mistr...

#Hardware #LLM On-Premise #DevOps
2026-04-28 LocalLLaMA

Mistral AI: attesa per un nuovo modello o strumento

L'ecosistema degli LLM è in fermento per un potenziale annuncio da parte di Mistral AI. Un recente post sui social media suggerisce l'imminente rilascio di nuovi modelli o l'aggiornamento di strumenti esistenti, un evento che potrebbe avere ripercuss...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 LocalLLaMA

NVIDIA Nemotron-3 Nano Omni 30B: Un LLM Multimodale per il Deployment Locale

NVIDIA ha rilasciato Nemotron-3 Nano Omni 30B, un Large Language Model multimodale capace di elaborare input audio, immagini e testo per generare risposte testuali. Disponibile in precisione BF16 e in formato GGUF ottimizzato, questo modello si posiz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 LocalLLaMA

Ling-2.6-flash: Un nuovo LLM ottimizzato per deployment locali

È stato rilasciato Ling-2.6-flash, un nuovo Large Language Model che si posiziona come soluzione interessante per l'inference su infrastrutture proprietarie. La sua presenza nella comunità dedicata ai deployment locali suggerisce un'attenzione partic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 LocalLLaMA

Deepseek Vision: Un Nuovo Modello Multimodale All'Orizzonte

Xiaokang Chen ha annunciato l'imminente rilascio di Deepseek Vision, un nuovo modello che promette di espandere le capacità degli LLM verso l'elaborazione multimodale. L'arrivo di modelli di visione solleva questioni cruciali per le aziende che valut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 LocalLLaMA

MIMO V2.5 Pro: Un Nuovo LLM per il Panorama On-Premise

XiaomiMiMo ha rilasciato MIMO V2.5 Pro, un nuovo Large Language Model che si inserisce nel crescente interesse per le soluzioni AI self-hosted. Questo modello offre alle aziende l'opportunità di esplorare il deployment locale, affrontando le sfide le...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 ArXiv cs.LG

KARL: Reinforcement Learning per LLM più affidabili e meno 'allucinati'

Un nuovo framework, KARL, sfrutta il Reinforcement Learning per mitigare le allucinazioni negli LLM. Introducendo un sistema di ricompensa dinamico e una strategia di training a due stadi, KARL permette ai modelli di astenersi dalle risposte incerte,...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-26 Tom's Hardware

DeepSeek V4: un LLM da 1.6 trilioni di parametri su chip Huawei, tra accuse USA

DeepSeek ha rilasciato la versione V4 del suo Large Language Model, caratterizzato da 1.6 trilioni di parametri e sviluppato su chip Huawei. Questo annuncio giunge mentre il governo statunitense intensifica le accuse di furto di proprietà intellettua...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 DigiTimes

Le aziende AI cinesi accelerano sul deployment e l'inference a GITEX Asia

Le aziende cinesi attive nel settore dell'intelligenza artificiale stanno spostando il loro focus verso il deployment e l'inference dei Large Language Models. Questa tendenza, evidenziata a GITEX Asia, indica una maturazione del mercato, che si conce...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Register AI

DeepSeek V4: LLM open weights ottimizzato per acceleratori Huawei Ascend

DeepSeek ha presentato V4, un nuovo Large Language Model a pesi aperti che promette prestazioni elevate e una significativa riduzione dei costi di inference. Il modello si distingue per il supporto esteso alla famiglia di acceleratori AI Ascend di Hu...

#Hardware #LLM On-Premise #DevOps
2026-04-24 TechCrunch AI

DeepSeek presenta nuovi LLM che riducono il divario con i modelli di punta

DeepSeek ha annunciato l'anteprima di nuovi Large Language Models (LLM) che, grazie a miglioramenti architetturali, superano DeepSeek V3.2 in efficienza e performance. L'azienda dichiara che questi modelli hanno quasi raggiunto le capacità dei princi...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

DeepSeek V4 e l'integrazione Huawei: un segnale per lo stack AI cinese

DeepSeek ha presentato i suoi modelli V4, caratterizzati da una significativa integrazione con le tecnicie Huawei. Questa mossa indica una potenziale ridefinizione dello stack tecnicico per l'intelligenza artificiale in Cina, con implicazioni per l'a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Next Web

DeepSeek lancia V4-Pro e V4-Flash, puntando all'eccellenza Open Source

DeepSeek, startup di Hangzhou, ha rilasciato le versioni di anteprima dei suoi nuovi LLM, V4-Pro e V4-Flash, disponibili su Hugging Face. Il modello V4-Pro si distingue per le prestazioni superiori in ambito di programmazione e matematica tra i model...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Next Web

OpenAI presenta GPT-5.5: un nuovo modello base per task complessi

OpenAI ha annunciato GPT-5.5, il suo primo modello base completamente riaddestrato da GPT-4.5. Con il nome in codice "Spud", è progettato per gestire attività multi-step complesse con minima supervisione umana. Il modello stabilisce nuovi benchmark i...

#Hardware #LLM On-Premise #DevOps
2026-04-23 TechCrunch AI

OpenAI presenta GPT-5.5: capacità estese e la visione di una 'superapp' AI

OpenAI ha annunciato il rilascio di GPT-5.5, il suo ultimo modello che promette capacità avanzate in diverse categorie. L'azienda lo posiziona come un passo fondamentale verso la creazione di una 'superapp' basata sull'intelligenza artificiale. Quest...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 OpenAI Blog

GPT-5.5: Un Nuovo Orizzonte per i Modelli Linguistici Avanzati

OpenAI ha presentato GPT-5.5, il suo LLM più sofisticato, progettato per essere più rapido e capace nell'affrontare compiti complessi come la programmazione, la ricerca e l'analisi dei dati. Questa evoluzione solleva importanti considerazioni per le ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 ArXiv cs.LG

WorkflowGen: un Framework Adattivo per Ottimizzare i Workflow degli LLM

WorkflowGen è un nuovo framework che affronta le inefficienze degli agenti LLM, come l'elevato consumo di token e l'instabilità. Proposto come soluzione adattiva basata sull'esperienza pregressa, riduce il consumo di token di oltre il 40% e migliora ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-23 DigiTimes

La domanda di AI rafforza il ciclo delle apparecchiature per semiconduttori

L'industria dei semiconduttori sta vivendo una ripresa, guidata in particolare dalla crescente domanda di intelligenza artificiale. Questo trend sta rafforzando il ciclo delle apparecchiature di produzione, con aziende come Lam Research che beneficia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Microsoft Research

AutoAdapt: L'automazione dell'adattamento di LLM per scenari critici

Microsoft Research presenta AutoAdapt, un Framework Open Source che automatizza l'adattamento di Large Language Models a domini specialistici e ad alto rischio. Il sistema affronta le sfide di riproducibilità, costi e tempi, trasformando processi man...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic