Topic / Trend Rising

Sviluppo LLM e Ricerca AI Avanzata

La frontiera della ricerca AI continua ad espandersi con nuovi modelli LLM, capacità migliorate di ragionamento e generazione di contenuti, e sforzi per affrontare problemi come allucinazioni e bias. Ingente investimenti stanno affluendo nella ricerca AI fondamentale per spingere ulteriormente questi confini.

Detected: 2026-04-28 · Updated: 2026-04-28

Articoli Correlati

2026-04-28 The Register AI

Documento riservato nel Regno Unito: un errore da 370 milioni di sterline

Il Ministero delle Pensioni e del Welfare del Regno Unito si trova al centro di una disputa legale da 370 milioni di sterline. Un documento contenente un confronto tra fornitori, fornito "per errore" al suo partner di outsourcing SSCL, è emerso in tr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 Wired AI

Il Terminal Bloomberg si rinnova con l'IA: un'analisi delle implicazioni

Bloomberg sta integrando funzionalità basate sull'intelligenza artificiale, in stile chatbot, nel suo iconico Terminal. Questa evoluzione, discussa dal CTO dell'azienda, evidenzia la crescente adozione di LLM in settori critici come la finanza, solle...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

Empyrean e il mercato EDA cinese: tra flussi di capitale e sfide di profitto

Empyrean, un attore chiave nel settore dell'Electronic Design Automation (EDA) cinese, sta navigando un periodo complesso. Nonostante l'attrazione di significativi investimenti al dettaglio, l'azienda ha registrato un calo dei profitti, mettendo sott...

#Hardware #LLM On-Premise #DevOps
2026-04-28 The Register AI

L'impatto dell'AI sui giganti tech indiani: deflazione e pressione sui ricavi

L'avanzata dell'intelligenza artificiale sta iniziando a ridefinire i modelli di business dei principali fornitori di servizi tecnicici indiani, generando una "deflazione da AI" che comprime i ricavi. Nonostante questa pressione economica, il numero ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-28 Tech.eu

Redpine: 6,8 milioni di euro per dati AI di qualità e conformi

L'azienda svedese Redpine ha raccolto 6,8 milioni di euro in un round di finanziamento seed guidato da NordicNinja. L'investimento mira a potenziare la sua piattaforma di dati AI, focalizzata sull'accesso a dataset premium, non pubblici e conformi. R...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-28 ArXiv cs.CL

TexOCR: Ricostruire PDF scientifici in LaTeX compilabile con modelli avanzati

Un nuovo studio introduce TexOCR, un modello da 2 miliardi di parametri progettato per convertire PDF scientifici in LaTeX compilabile. A differenza dei sistemi OCR tradizionali che spesso perdono la struttura del documento, TexOCR mira a preservare ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-28 ArXiv cs.LG

KARL: Reinforcement Learning per LLM più affidabili e meno 'allucinati'

Un nuovo framework, KARL, sfrutta il Reinforcement Learning per mitigare le allucinazioni negli LLM. Introducendo un sistema di ricompensa dinamico e una strategia di training a due stadi, KARL permette ai modelli di astenersi dalle risposte incerte,...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-28 DigiTimes

Etica e intelligenza artificiale: perché le Big Tech assumono filosofi

Le principali aziende attive nello sviluppo dell'intelligenza artificiale stanno integrando filosofi nei loro team per affrontare il crescente divario etico. Questa mossa strategica mira a infondere principi morali e considerazioni sociali nello svil...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-28 Wired AI

Causa Musk vs. OpenAI: la selezione della giuria rivela sfide inattese

La causa intentata da Elon Musk contro OpenAI, che contesta l'evoluzione dell'azienda sotto la guida di Sam Altman, ha incontrato un ostacolo inatteso. Durante la selezione della giuria, diversi potenziali giurati hanno espresso opinioni negative nei...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 DigiTimes

DeepSeek V4 e il divario AI: le sfide tra USA e Cina per i chip

DeepSeek V4 non ha colmato il divario di performance, evidenziando la persistente divisione nell'ambito dell'intelligenza artificiale tra Stati Uniti e Cina. Questa situazione è aggravata dalle restrizioni sui chip, che influenzano la disponibilità d...

#Hardware #LLM On-Premise #DevOps
2026-04-27 Anthropic News

Anthropic rafforza la presenza in Oceania con un nuovo GM e sede a Sydney

Anthropic ha nominato Theo Hourmouzis General Manager per Australia e Nuova Zelanda e ha inaugurato un nuovo ufficio a Sydney. Questa espansione sottolinea l'importanza strategica della regione per l'adozione degli LLM, portando con sé considerazioni...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 TechCrunch AI

Ineffable Intelligence: 1,1 miliardi per un'AI che impara senza dati umani

Ineffable Intelligence, il nuovo laboratorio AI fondato dall'ex ricercatore DeepMind David Silver, ha raccolto 1,1 miliardi di dollari. L'obiettivo è sviluppare un'intelligenza artificiale capace di apprendere autonomamente, senza dipendere da vasti ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-27 Wired AI

David Silver e la Nuova Visione per l'AI: Oltre il Percorso Attuale

David Silver, figura chiave dietro AlphaGo, ha fondato una nuova azienda valutata un miliardo di dollari. L'obiettivo è sviluppare "superlearners" AI, suggerendo un cambio di rotta rispetto all'attuale paradigma di sviluppo dell'intelligenza artifici...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 IEEE Spectrum

NYU rivoluziona la ricerca sanitaria: ingegneria e AI per le grandi sfide

L'Institute for Engineering Health della NYU sta rivoluzionando la ricerca sanitaria, abbandonando i silos disciplinari per affrontare le malattie in modo integrato. Riunendo esperti di ingegneria, biologia computazionale e AI, l'istituto mira a svil...

#Fine-Tuning #DevOps
2026-04-27 The Next Web

Musk contro Altman: il processo sul futuro di OpenAI inizia a Oakland

La battaglia legale tra Elon Musk e Sam Altman per il controllo di OpenAI è approdata in un tribunale federale di Oakland. Il caso, che durerà quattro settimane, verte sulla natura dell'azienda, nata come non-profit, e sulla sua trasformazione in un ...

#Hardware #LLM On-Premise #DevOps
2026-04-27 ArXiv cs.CL

La sensibilità ai prompt degli LLM: uno sguardo ai meccanismi interni

La variabilità delle risposte degli LLM in base al prompt è una sfida nota. Una nuova ricerca svela che, nonostante le differenze di performance, i modelli attivano meccanismi interni comuni. L'analisi ha identificato "lexical task heads", unità di a...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-27 ArXiv cs.CL

LLM e disinformazione culturale: i limiti nell'analisi di contenuti specifici

Uno studio recente evidenzia come i Large Language Models (LLM), addestrati prevalentemente su corpora occidentali, fatichino a identificare la disinformazione sanitaria culturalmente radicata. Analizzando contenuti su YouTube relativi al 'gomutra' i...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-27 ArXiv cs.AI

Math Takes Two: Valutare la logica matematica emergente negli LLM

Un nuovo benchmark, "Math Takes Two", mira a distinguere la vera logica matematica negli LLM dal semplice riconoscimento di pattern statistici. Progettato per testare la capacità di due agenti di sviluppare un protocollo simbolico condiviso senza con...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 DigiTimes

NCSIST e Saronic: una partnership per l'autonomia marittima

NCSIST di Taiwan e Saronic hanno stretto una collaborazione strategica per potenziare le capacità autonome in ambito marittimo. Questa iniziativa evidenzia la crescente importanza dell'intelligenza artificiale in settori critici, sollevando questioni...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 The Next Web

La trasformazione di OpenAI sotto esame: il processo Musk contro Altman

Prende il via a Oakland il processo che vedrà Elon Musk contrapporsi a Sam Altman e OpenAI. Al centro della disputa legale, la conversione dell'organizzazione da entità senza scopo di lucro a una delle aziende più valutate al mondo, con l'accusa di a...

#Hardware #LLM On-Premise #DevOps
2026-04-26 The Next Web

Sequoia e i Mac Mini: un impulso all'AI on-premise oltre gli investimenti

Sequoia Capital ha distribuito 200 Mac Mini personalizzati ai partecipanti dell'evento "AI at the Frontier". L'iniziativa, promossa da Alfred Lin, uno dei responsabili di Sequoia, mira a stimolare progetti AI che esulano dai tradizionali schemi di in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 Tom's Hardware

DeepSeek V4: un LLM da 1.6 trilioni di parametri su chip Huawei, tra accuse USA

DeepSeek ha rilasciato la versione V4 del suo Large Language Model, caratterizzato da 1.6 trilioni di parametri e sviluppato su chip Huawei. Questo annuncio giunge mentre il governo statunitense intensifica le accuse di furto di proprietà intellettua...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 The Next Web

OpenAI: Sam Altman si scusa per il mancato allarme dopo una sparatoria

Sam Altman, CEO di OpenAI, ha pubblicato una lettera aperta alla comunità di Tumbler Ridge, British Columbia, scusandosi per la mancata segnalazione alle forze dell'ordine. I sistemi di OpenAI avevano identificato un utente che in seguito ha commesso...

#LLM On-Premise #DevOps
2026-04-25 The Next Web

Il rally dell'AI: il CAPE tra euforia di mercato e lezioni storiche

Il rapporto prezzo/utili ciclicamente aggiustato (CAPE) di Shiller per l'S&P 500 si attesta tra 38 e 40, un valore superato solo una volta negli ultimi 155 anni: nel marzo 2000, prima del crollo del Nasdaq. Questa metrica finanziaria suggerisce analo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 TechCrunch AI

OpenAI: Le responsabilità etiche e la gestione dei dati nel deployment AI

Il CEO di OpenAI, Sam Altman, ha espresso rammarico alla comunità di Tumbler Ridge, Canada, per la mancata segnalazione alle forze dell'ordine di un sospettato in una sparatoria. L'episodio solleva interrogativi sulle responsabilità etiche delle azie...

#Hardware #LLM On-Premise #DevOps
2026-04-25 TechCrunch AI

Cohere acquisisce Aleph Alpha: nasce un'alternativa AI sovrana per le imprese

La startup canadese Cohere acquisisce l'azienda tedesca Aleph Alpha con il supporto di Schwarz Group e l'approvazione governativa. L'obiettivo è creare un'offerta AI sovrana, alternativa ai giganti americani, per le aziende che cercano maggiore contr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 TechCrunch AI

SusHi Tech Tokyo 2026: Un Vertice Tecnologico Chiave per il Futuro dell'AI

SusHi Tech Tokyo 2026 si posiziona come un evento di riferimento per il settore tecnicico globale. Con quattro domini tecnicici ben definiti, l'iniziativa offrirà dimostrazioni dal vivo, spazi espositivi dedicati e sessioni con i principali innovator...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 DigiTimes

Le aziende AI cinesi accelerano sul deployment e l'inference a GITEX Asia

Le aziende cinesi attive nel settore dell'intelligenza artificiale stanno spostando il loro focus verso il deployment e l'inference dei Large Language Models. Questa tendenza, evidenziata a GITEX Asia, indica una maturazione del mercato, che si conce...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Register AI

DeepSeek V4: LLM open weights ottimizzato per acceleratori Huawei Ascend

DeepSeek ha presentato V4, un nuovo Large Language Model a pesi aperti che promette prestazioni elevate e una significativa riduzione dei costi di inference. Il modello si distingue per il supporto esteso alla famiglia di acceleratori AI Ascend di Hu...

#Hardware #LLM On-Premise #DevOps
2026-04-24 TechCrunch AI

Il flusso bidirezionale di talenti tra Meta e Thinking Machines Lab

Il mercato dei talenti nell'intelligenza artificiale è in fermento, come dimostra il continuo scambio di professionisti tra giganti come Meta e realtà specializzate come Thinking Machines Lab. Questo fenomeno evidenzia la crescente domanda di compete...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Phoronix

GCC valuta l'integrazione di AI e LLM nello sviluppo dei compilatori

Il comitato direttivo della GNU Compiler Collection (GCC) ha istituito un gruppo di lavoro dedicato allo studio dell'impiego di intelligenza artificiale e Large Language Models (LLM) nel contesto dello sviluppo dei propri compilatori. Questa iniziati...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 TechCrunch AI

Mac mini esauriti: la domanda di AI locale spinge i prezzi su eBay

La crescente domanda per l'esecuzione di modelli AI e strumenti in locale ha portato all'esaurimento dei Mac mini di Apple. Questa carenza ha innescato un mercato secondario su eBay, dove i dispositivi sono offerti a prezzi maggiorati, evidenziando l...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Tom's Hardware

Nuovo dispositivo bioelettronico 3D sfrutta cellule cerebrali viventi

Un nuovo dispositivo bioelettronico 3D integra cellule cerebrali viventi con una maglia elettronica tridimensionale. Questa innovazione esplora un paradigma computazionale inedito, dove i neuroni biologici crescono all'interno e attraverso la struttu...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Tech.eu

Mercato AI in fermento: Verda raccoglie 117M, Aleph Alpha verso Cohere

Il panorama tecnicico europeo è stato animato da importanti movimenti finanziari e strategici. Verda ha raccolto 117 milioni di dollari per la sua infrastruttura AI cloud alimentata da energia pulita, mentre Aleph Alpha, un attore chiave nel settore ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-24 The Register AI

Open Telemetry: l'AI come strumento per la maturità del progetto

Il fondatore del progetto Open Telemetry ha evidenziato a Grafanacon la potenziale necessità di adottare strumenti di intelligenza artificiale. L'obiettivo è rafforzare alcuni elementi chiave del progetto, rendendoli sufficientemente robusti per ragg...

#LLM On-Premise #DevOps
2026-04-24 TechCrunch AI

DeepSeek presenta nuovi LLM che riducono il divario con i modelli di punta

DeepSeek ha annunciato l'anteprima di nuovi Large Language Models (LLM) che, grazie a miglioramenti architetturali, superano DeepSeek V3.2 in efficienza e performance. L'azienda dichiara che questi modelli hanno quasi raggiunto le capacità dei princi...

#Hardware #LLM On-Premise #DevOps
2026-04-24 The Register AI

La caccia ai bug: i modelli Open Source sfidano le soluzioni proprietarie

Ari Herbert-Voss, CEO di RunSybil ed ex responsabile della sicurezza di OpenAI, sostiene che i modelli Open Source possono identificare vulnerabilità con la stessa efficacia di soluzioni proprietarie come Mythos di Anthropic. Questa prospettiva, emer...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

DeepSeek V4 e l'integrazione Huawei: un segnale per lo stack AI cinese

DeepSeek ha presentato i suoi modelli V4, caratterizzati da una significativa integrazione con le tecnicie Huawei. Questa mossa indica una potenziale ridefinizione dello stack tecnicico per l'intelligenza artificiale in Cina, con implicazioni per l'a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Wired AI

Chatbot e consulenza finanziaria: perché la cautela è d'obbligo

L'aumento della dipendenza dai chatbot AI per consigli, inclusi quelli finanziari, solleva interrogativi critici. È fondamentale mantenere un sano scetticismo, poiché i Large Language Models generici presentano limiti intrinseci in termini di accurat...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-24 The Next Web

DeepSeek lancia V4-Pro e V4-Flash, puntando all'eccellenza Open Source

DeepSeek, startup di Hangzhou, ha rilasciato le versioni di anteprima dei suoi nuovi LLM, V4-Pro e V4-Flash, disponibili su Hugging Face. Il modello V4-Pro si distingue per le prestazioni superiori in ambito di programmazione e matematica tra i model...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

L'UE esamina le regole di accesso Android: a rischio il vantaggio di Gemini

L'Unione Europea ha avviato un'indagine sulle regole di accesso alla piattaforma Android, una mossa che potrebbe ridefinire il panorama competitivo per l'integrazione di Large Language Models come Gemini. Questa iniziativa mira a promuovere una maggi...

#Hardware #LLM On-Premise #DevOps
2026-04-24 Anthropic News

Anthropic e NEC: la collaborazione per la forza lavoro AI in Giappone

Anthropic e NEC hanno avviato una collaborazione strategica per sviluppare la più grande forza lavoro ingegneristica dedicata all'intelligenza artificiale in Giappone. Questa iniziativa sottolinea l'importanza cruciale delle competenze locali per il ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 ArXiv cs.AI

Oltre l'accordo: un nuovo approccio per valutare l'AI basata su regole

Un nuovo studio propone un framework per valutare i sistemi di intelligenza artificiale basati su regole, superando i limiti delle metriche di accordo tradizionali. Introducendo il Defensibility Index e l'Ambiguity Index, la ricerca dimostra come mol...

#LLM On-Premise #DevOps
2026-04-24 DigiTimes

Cooperazione Taiwan-Corea: Nuove Alleanze per la Filiera AI e l'On-Premise

Un'intervista evidenzia l'intenzione di Taiwan e Corea del Sud di estendere la loro cooperazione tecnicica oltre il tradizionale settore della memoria, con la città di Hwaseong impegnata a espandere le alleanze. Questa strategia è cruciale per raffor...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

L'accelerazione dell'innovazione AI e le sfide per la sicurezza aziendale

L'inarrestabile progresso nell'ambito dell'intelligenza artificiale, in particolare nei Large Language Models (LLM), sta creando un divario significativo con le capacità di sicurezza delle aziende. Questa rapida evoluzione impone alle imprese di ripe...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

SoftBank cerca un prestito da 10 miliardi garantito dalle azioni OpenAI

SoftBank sta negoziando un prestito di 10 miliardi di dollari, garantito dalla sua quota in OpenAI. Il finanziamento, con un tasso di interesse di SOFR + 425 punti base e una durata di due anni estendibile, si aggiunge a un precedente prestito ponte ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

Zapata Quantum raccoglie 15 milioni di dollari dopo la ristrutturazione

Zapata Quantum ha annunciato di aver completato un round di finanziamento da 15 milioni di dollari, guidato da Triatomic Capital. Questa operazione, che ha visto una sottoscrizione superiore alle attese, segue una complessa ristrutturazione aziendale...

#LLM On-Premise #DevOps
2026-04-23 The Next Web

OpenAI presenta GPT-5.5: un nuovo modello base per task complessi

OpenAI ha annunciato GPT-5.5, il suo primo modello base completamente riaddestrato da GPT-4.5. Con il nome in codice "Spud", è progettato per gestire attività multi-step complesse con minima supervisione umana. Il modello stabilisce nuovi benchmark i...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Wired AI

L'AI a Stanford: il corso CS 153 tra successo virale e dibattito

Il corso CS 153 di Stanford, soprannominato "AI Coachella", ha generato un'enorme risonanza nel campus e sui social. Sebbene celebri l'interesse per l'intelligenza artificiale, la sua popolarità solleva interrogativi sull'accesso alla conoscenza e su...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 TechCrunch AI

OpenAI presenta GPT-5.5: capacità estese e la visione di una 'superapp' AI

OpenAI ha annunciato il rilascio di GPT-5.5, il suo ultimo modello che promette capacità avanzate in diverse categorie. L'azienda lo posiziona come un passo fondamentale verso la creazione di una 'superapp' basata sull'intelligenza artificiale. Quest...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 OpenAI Blog

GPT-5.5 Bio Bug Bounty: la sfida al red-teaming per la sicurezza degli LLM

OpenAI ha lanciato il programma GPT-5.5 Bio Bug Bounty, una sfida di red-teaming mirata a identificare vulnerabilità e 'jailbreak' universali nei suoi Large Language Models. L'iniziativa si concentra sui rischi legati alla biosicurezza, offrendo rico...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 OpenAI Blog

GPT-5.5: Un Nuovo Orizzonte per i Modelli Linguistici Avanzati

OpenAI ha presentato GPT-5.5, il suo LLM più sofisticato, progettato per essere più rapido e capace nell'affrontare compiti complessi come la programmazione, la ricerca e l'analisi dei dati. Questa evoluzione solleva importanti considerazioni per le ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 AI News

AMI Labs di Yann LeCun: un miliardo di dollari per un'AI modulare e locale

AMI Labs, la startup fondata da Yann LeCun, ha raccolto un miliardo di dollari per sviluppare un'intelligenza artificiale basata su componenti modulari, in netto contrasto con gli attuali Large Language Models. L'approccio mira a sistemi più efficien...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Register AI

Dati obsoleti e LLM: la sfida dell'accuratezza nelle informazioni governative

Le panoramiche generate dall'IA, come quelle di Google, stanno fornendo sintesi errate di informazioni governative britanniche, attingendo a pagine GOV.UK obsolete. Questa problematica, evidenziata dal Department for Business and Trade (DBT), solleva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Apple ridefinisce la strategia AI: focus su Siri e privacy

Apple sta riorientando la sua strategia nell'intelligenza artificiale, ponendo un'enfasi marcata sul miglioramento di Siri e sulla protezione della privacy degli utenti. Questa mossa suggerisce un approccio che potrebbe privilegiare l'elaborazione on...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 TechCrunch AI

Il mercato app indiano in crescita: l'AI spinge, ma i giganti globali dominano

Il mercato delle applicazioni in India sta vivendo una fase di espansione significativa, trainato in particolare dalle app non-gaming, con streaming e intelligenza artificiale in prima linea. Nonostante questa crescita, la spesa media per utente nel ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

IBM: watsonx e l'AI sovrana rilanciano il mainframe nel 2026

IBM ha registrato un trimestre eccezionale nel primo trimestre 2026, grazie alla spinta di watsonx, alla crescente domanda di mainframe e all'impegno per l'AI sovrana. Questi elementi evidenziano una strategia focalizzata su soluzioni enterprise che ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 ArXiv cs.CL

Individuare e Prevenire gli Stereotipi nei Large Language Models

Uno studio recente indaga i meccanismi interni di LLM come GPT 2 Small e Llama 3.2 per localizzare gli stereotipi. La ricerca esplora l'identificazione di attivazioni neuronali specifiche e di "attention heads" che contribuiscono a output distorti. L...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-23 ArXiv cs.LG

Un framework trasparente per valutare l'impatto di LLM: comparabilità e TCO

Un nuovo studio introduce un framework di screening trasparente per stimare gli impatti di inference e training dei Large Language Models. La metodologia, basata su descrizioni in linguaggio naturale, genera stime ambientali circoscritte e supporta u...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 ArXiv cs.LG

WorkflowGen: un Framework Adattivo per Ottimizzare i Workflow degli LLM

WorkflowGen è un nuovo framework che affronta le inefficienze degli agenti LLM, come l'elevato consumo di token e l'instabilità. Proposto come soluzione adattiva basata sull'esperienza pregressa, riduce il consumo di token di oltre il 40% e migliora ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-23 ArXiv cs.AI

Selezione Algoritmica Senza Conoscenza di Dominio tramite Embeddings Testuali

Un nuovo studio introduce ZeroFolio, un approccio innovativo per la selezione algoritmica che sfrutta gli embeddings testuali pre-addestrati. Questo metodo, privo di funzionalità ingegnerizzate manualmente, analizza i file di istanza come testo sempl...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 ArXiv cs.AI

L'illusione dell'eccesso di strumenti negli LLM: ottimizzare l'efficienza

Una nuova ricerca evidenzia un fenomeno critico negli LLM: l'eccesso di strumenti. I modelli tendono a usare strumenti esterni anche quando la conoscenza interna sarebbe sufficiente, rallentando le operazioni. Lo studio identifica due meccanismi chia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

IBM e la crescita AI: tra risultati e sfide nel software enterprise

IBM ha registrato una crescita costante nel settore dell'intelligenza artificiale, riflettendo l'adozione diffusa dell'AI in ambito aziendale. Tuttavia, il report solleva interrogativi sul "software momentum" dell'azienda, un aspetto cruciale per le ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Google presenta i nuovi TPU 8t e 8i per carichi di lavoro AI diversificati

Google Cloud ha annunciato i nuovi processori TPU 8t e 8i, progettati per rispondere alla crescente diversificazione dei carichi di lavoro di intelligenza artificiale. Questa mossa sottolinea l'esigenza di soluzioni hardware specializzate, sia per il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

X e i feed personalizzati AI: sfide e opportunità per l'infrastruttura LLM

X sta introducendo feed personalizzati basati sull'intelligenza artificiale, curati da Grok, che sostituiranno le attuali 'Communities' e includeranno nuovi spazi pubblicitari. Questa mossa evidenzia la crescente integrazione degli LLM nelle piattafo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Register AI

Anthropic Mythos: il modello "cacciatore di bug" tra hype e realtà

Il modello Mythos di Anthropic, progettato per identificare vulnerabilità, ha generato attese significative per le sue presunte capacità. Nonostante le iniziali preoccupazioni riguardo a un potenziale uso improprio, le prime analisi suggeriscono che ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-22 The Next Web

L'AI di Anthropic rafforza Firefox: 271 bug risolti con Mythos

Mozilla ha rilasciato Firefox 150, integrando correzioni per 271 vulnerabilità di sicurezza. Queste sono state identificate da Claude Mythos Preview di Anthropic, un modello AI avanzato e non ancora disponibile al pubblico, distribuito nell'ambito de...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Wired AI

Quando l'AI impara a ingannare: la doppia minaccia di modelli avanzati

Le capacità di manipolazione sociale dei Large Language Models (LLM) stanno emergendo come una preoccupazione significativa, affiancandosi ai rischi cyber. Recenti osservazioni mostrano modelli AI capaci di tentare truffe con un'efficacia allarmante,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Microsoft Research

AutoAdapt: L'automazione dell'adattamento di LLM per scenari critici

Microsoft Research presenta AutoAdapt, un Framework Open Source che automatizza l'adattamento di Large Language Models a domini specialistici e ad alto rischio. Il sistema affronta le sfide di riproducibilità, costi e tempi, trasformando processi man...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

Google ridefinisce i TPU: architetture separate per training e inference

Google ha annunciato la disponibilità generale della sua settima generazione di TPU, Ironwood, e ha svelato l'ottava, composta da TPU 8t (per il training) e TPU 8i (per l'inference). Questa nuova strategia prevede chip dedicati, progettati rispettiva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

OpenAI e Infosys: una partnership per l'adozione dell'AI in azienda

OpenAI e Infosys hanno annunciato una collaborazione strategica per accelerare l'adozione di strumenti di intelligenza artificiale nelle imprese. L'integrazione mira a supportare i clienti di Infosys nella modernizzazione dello sviluppo software, nel...

#LLM On-Premise #DevOps
2026-04-22 Ars Technica AI

L'AI generativa come fonte di reddito: il caso di uno studente indiano

Uno studente di medicina indiano ha esplorato un percorso non convenzionale per integrare le proprie finanze. Utilizzando Google Gemini’s Nano Banana Pro, ha generato immagini di una ragazza tramite intelligenza artificiale e le ha poi commercializza...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Register AI

Grafana: assistente AI gratuito per deployment on-premise e Open Source

Grafana ha annunciato la disponibilità gratuita del suo assistente AI, rivolto specificamente agli utenti Open Source e a chi gestisce deployment on-premise. L'iniziativa, presentata durante la conferenza utente di Barcellona, rafforza l'impegno dell...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Phoronix

Intel LLM-Scaler: vLLM 0.14.0-b8.2 introduce il supporto per Arc Pro B70

L'iniziativa Intel LLM-Scaler prosegue con l'aggiornamento vLLM 0.14.0-b8.2. Questa versione introduce il supporto ufficiale per la scheda grafica Arc Pro B70, estendendo le capacità di inference AI su hardware Intel Arc. L'aggiornamento mira a ottim...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Register AI

Google accelera sull'AI: nuove TPU e Axion Arm per training e inference

Google ha svelato due nuovi acceleratori AI proprietari alla conferenza Cloud Next: uno per il training e uno per l'inference, con l'introduzione di core Axion basati su Arm. Questa mossa strategica evidenzia l'impegno di Google nello sviluppo di sil...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

L'intelligenza artificiale generativa si integra in Google Maps

Google ha annunciato l'integrazione dell'intelligenza artificiale generativa nella sua popolare applicazione Google Maps. Questa mossa riflette la crescente adozione degli LLM nei servizi consumer e solleva interrogativi sulle implicazioni tecniche e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Tom's Hardware

Rischio RCE critico nel protocollo di Anthropic: 200.000 server AI esposti

Una nuova e preoccupante vulnerabilità di tipo Remote Code Execution (RCE) è stata identificata nel protocollo di contesto di Anthropic, un componente chiave per i Large Language Models come Claude. Questa falla di sicurezza critica espone fino a 200...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Tom's Hardware

AMD e l'evoluzione dell'upscaling AI: implicazioni per l'hardware locale

Il kit di sviluppo (SDK) di AMD suggerisce l'introduzione di nuovi moltiplicatori 4x e 6x per la generazione di frame basata su intelligenza artificiale (AI). Questa ottimizzazione a livello di driver evidenzia la crescente tendenza a sfruttare la po...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Next Web

NeoCognition: 40 milioni per agenti AI che apprendono dall'esperienza

La startup NeoCognition ha raccolto 40 milioni di dollari in finanziamenti seed per sviluppare agenti AI capaci di specializzarsi tramite l'esperienza diretta, anziché affidarsi esclusivamente alla pre-training. L'azienda, uno spin-off della Ohio Sta...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Register AI

Mozilla testa Mythos di Anthropic per la sicurezza di Firefox

La Mozilla Foundation ha condotto un test sul modello AI "Mythos" di Anthropic, specializzato nella ricerca di bug. Il modello ha identificato 271 vulnerabilità in Firefox, sebbene tutte fossero rilevabili anche da un analista umano. Il CTO di Mozill...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ArXiv cs.LG

LLM auto-evolventi: EasyRL ottimizza il fine-tuning con meno dati

Un nuovo studio introduce EasyRL, un approccio innovativo per il post-training degli LLM che mira a superare i limiti dei metodi esistenti, come gli elevati costi di annotazione e i problemi di collasso del modello. Ispirato alla teoria dell'apprendi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ArXiv cs.LG

LLM e Dimostrazione di Teoremi: La Compilazione Riduce i Costi Computazionali

Un nuovo approccio sfrutta l'output dei compilatori per migliorare l'efficienza degli LLM nella dimostrazione formale di teoremi. Il metodo affronta il collo di bottiglia computazionale, tipico delle soluzioni attuali che richiedono risorse proibitiv...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ArXiv cs.AI

Visualizzare le distribuzioni LLM: un nuovo approccio oltre il singolo output

La valutazione dei Large Language Models (LLM) basata su singoli output ignora la ricchezza delle distribuzioni di risposte possibili, portando a generalizzazioni errate. Una nuova ricerca introduce GROVE, uno strumento di visualizzazione interattivo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Naver e TCS: partnership strategica per AI e cloud in India

Naver e TCS hanno siglato una partnership strategica in India, concentrandosi sullo sviluppo di soluzioni AI e cloud. L'accordo, annunciato durante un summit tra Corea e India, mira a rafforzare l'offerta tecnicica nel subcontinente, evidenziando l'i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 MIT Technology Review

La scommessa open-weight della Cina ridefinisce il panorama globale degli LLM

La Cina sta ridefinendo il panorama degli LLM con una strategia "open-weight", rilasciando modelli scaricabili che consentono agli sviluppatori di utilizzarli su hardware proprietario. Questo approccio, inaugurato da DeepSeek, ha portato a un'adozion...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Wired AI

OpenAI aggiorna il modello di generazione immagini di ChatGPT

OpenAI ha rilasciato ChatGPT Images 2.0, una nuova versione del suo modello per la creazione di immagini. I test preliminari evidenziano miglioramenti nella resa dei dettagli e del testo, sebbene permangano sfide nella gestione di lingue diverse dall...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 TechCrunch AI

Latitude presenta Voyage: una piattaforma per RPG basati su IA

Latitude, l'azienda dietro AI Dungeon, ha lanciato Voyage, una nuova piattaforma nativa per l'intelligenza artificiale. L'obiettivo è consentire ai giocatori di sviluppare i propri giochi di ruolo potenziati dall'IA, offrendo strumenti per la creazio...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-21 AI News

Snowflake potenzia le piattaforme AI per utenti business e sviluppatori

Snowflake espande le sue offerte AI, Snowflake Intelligence e Cortex Code, per integrare l'intelligenza artificiale nei flussi di lavoro aziendali e nello sviluppo software. Le nuove funzionalità includono maggiori integrazioni, automazione e strumen...

#LLM On-Premise #DevOps
2026-04-21 TechCrunch AI

GRAI: l'IA per remixare la musica, non per sostituire gli artisti

La startup GRAI propone un approccio all'intelligenza artificiale nel settore musicale che enfatizza la collaborazione e la creatività umana. L'azienda ritiene che l'IA debba potenziare i fan nel remixare brani esistenti, piuttosto che generare compo...

#Hardware #LLM On-Premise #DevOps
2026-04-21 OpenAI Blog

OpenAI e i partner strategici per il deployment enterprise di Codex

OpenAI ha lanciato il programma Codex Transformation Partners, collaborando con Accenture, PwC, Infosys e altre aziende per supportare le imprese nell'adozione e nella scalabilità di Codex. L'iniziativa mira a integrare l'LLM nel ciclo di vita dello ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Wired AI

AI generativa: il fenomeno delle identità fittizie e i guadagni illeciti

Un caso recente ha evidenziato come uno studente di medicina abbia generato migliaia di dollari vendendo immagini e video di una donna conservatrice fittizia, creata interamente con strumenti di intelligenza artificiale generativa. Questo episodio no...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic