Topic / Trend Rising

Progressi degli LLM e Proliferazione dell'AI Generativa

Lo sviluppo dei Large Language Models procede a ritmo serrato, con nuove versioni che offrono capacità ed efficienza migliorate. L'AI generativa si espande oltre il testo, includendo immagini e altri media, sollevando interrogativi su autenticità e modelli di business.

Detected: 2026-04-27 · Updated: 2026-04-27

Articoli Correlati

2026-04-26 Tom's Hardware

DeepSeek V4: un LLM da 1.6 trilioni di parametri su chip Huawei, tra accuse USA

DeepSeek ha rilasciato la versione V4 del suo Large Language Model, caratterizzato da 1.6 trilioni di parametri e sviluppato su chip Huawei. Questo annuncio giunge mentre il governo statunitense intensifica le accuse di furto di proprietà intellettua...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Register AI

DeepSeek V4: LLM open weights ottimizzato per acceleratori Huawei Ascend

DeepSeek ha presentato V4, un nuovo Large Language Model a pesi aperti che promette prestazioni elevate e una significativa riduzione dei costi di inference. Il modello si distingue per il supporto esteso alla famiglia di acceleratori AI Ascend di Hu...

#Hardware #LLM On-Premise #DevOps
2026-04-24 TechCrunch AI

DeepSeek presenta nuovi LLM che riducono il divario con i modelli di punta

DeepSeek ha annunciato l'anteprima di nuovi Large Language Models (LLM) che, grazie a miglioramenti architetturali, superano DeepSeek V3.2 in efficienza e performance. L'azienda dichiara che questi modelli hanno quasi raggiunto le capacità dei princi...

#Hardware #LLM On-Premise #DevOps
2026-04-24 The Next Web

DeepSeek lancia V4-Pro e V4-Flash, puntando all'eccellenza Open Source

DeepSeek, startup di Hangzhou, ha rilasciato le versioni di anteprima dei suoi nuovi LLM, V4-Pro e V4-Flash, disponibili su Hugging Face. Il modello V4-Pro si distingue per le prestazioni superiori in ambito di programmazione e matematica tra i model...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Next Web

OpenAI presenta GPT-5.5: un nuovo modello base per task complessi

OpenAI ha annunciato GPT-5.5, il suo primo modello base completamente riaddestrato da GPT-4.5. Con il nome in codice "Spud", è progettato per gestire attività multi-step complesse con minima supervisione umana. Il modello stabilisce nuovi benchmark i...

#Hardware #LLM On-Premise #DevOps
2026-04-23 TechCrunch AI

OpenAI presenta GPT-5.5: capacità estese e la visione di una 'superapp' AI

OpenAI ha annunciato il rilascio di GPT-5.5, il suo ultimo modello che promette capacità avanzate in diverse categorie. L'azienda lo posiziona come un passo fondamentale verso la creazione di una 'superapp' basata sull'intelligenza artificiale. Quest...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 OpenAI Blog

GPT-5.5: Un Nuovo Orizzonte per i Modelli Linguistici Avanzati

OpenAI ha presentato GPT-5.5, il suo LLM più sofisticato, progettato per essere più rapido e capace nell'affrontare compiti complessi come la programmazione, la ricerca e l'analisi dei dati. Questa evoluzione solleva importanti considerazioni per le ...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Microsoft Research

AutoAdapt: L'automazione dell'adattamento di LLM per scenari critici

Microsoft Research presenta AutoAdapt, un Framework Open Source che automatizza l'adattamento di Large Language Models a domini specialistici e ad alto rischio. Il sistema affronta le sfide di riproducibilità, costi e tempi, trasformando processi man...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Ars Technica AI

L'AI generativa come fonte di reddito: il caso di uno studente indiano

Uno studente di medicina indiano ha esplorato un percorso non convenzionale per integrare le proprie finanze. Utilizzando Google Gemini’s Nano Banana Pro, ha generato immagini di una ragazza tramite intelligenza artificiale e le ha poi commercializza...

#Hardware #LLM On-Premise #DevOps
2026-04-22 TechCrunch AI

L'intelligenza artificiale generativa si integra in Google Maps

Google ha annunciato l'integrazione dell'intelligenza artificiale generativa nella sua popolare applicazione Google Maps. Questa mossa riflette la crescente adozione degli LLM nei servizi consumer e solleva interrogativi sulle implicazioni tecniche e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ArXiv cs.LG

LLM auto-evolventi: EasyRL ottimizza il fine-tuning con meno dati

Un nuovo studio introduce EasyRL, un approccio innovativo per il post-training degli LLM che mira a superare i limiti dei metodi esistenti, come gli elevati costi di annotazione e i problemi di collasso del modello. Ispirato alla teoria dell'apprendi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ArXiv cs.LG

LLM e Dimostrazione di Teoremi: La Compilazione Riduce i Costi Computazionali

Un nuovo approccio sfrutta l'output dei compilatori per migliorare l'efficienza degli LLM nella dimostrazione formale di teoremi. Il metodo affronta il collo di bottiglia computazionale, tipico delle soluzioni attuali che richiedono risorse proibitiv...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Wired AI

OpenAI aggiorna il modello di generazione immagini di ChatGPT

OpenAI ha rilasciato ChatGPT Images 2.0, una nuova versione del suo modello per la creazione di immagini. I test preliminari evidenziano miglioramenti nella resa dei dettagli e del testo, sebbene permangano sfide nella gestione di lingue diverse dall...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Wired AI

AI generativa: il fenomeno delle identità fittizie e i guadagni illeciti

Un caso recente ha evidenziato come uno studente di medicina abbia generato migliaia di dollari vendendo immagini e video di una donna conservatrice fittizia, creata interamente con strumenti di intelligenza artificiale generativa. Questo episodio no...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 ArXiv cs.LG

BASIS: Ottimizzare la memoria di attivazione nel training degli LLM

Un nuovo algoritmo, BASIS, promette di superare il collo di bottiglia della memoria di attivazione nel training delle reti neurali profonde, inclusi i Large Language Models. Decouplando la memoria dalle dimensioni di batch e sequenza, BASIS riduce si...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic