Topic / Trend Rising

Espansione Hardware e Framework AI

La crescente domanda di AI sta alimentando massicci investimenti in hardware specializzato come TPU, HBM e chip personalizzati, oltre a una significativa espansione dell'infrastruttura dei data center. Questa crescita evidenzia anche le sfide legate al consumo energetico e alla resilienza della catena di approvvigionamento.

Detected: 2026-04-24 · Updated: 2026-04-24

Articoli Correlati

2026-04-24 DigiTimes

Crisi nell'approvvigionamento di PCB per l'AI: margini sotto pressione

Il settore dell'intelligenza artificiale si trova ad affrontare una crescente pressione sui margini di profitto a causa di una crisi nell'approvvigionamento di Printed Circuit Boards (PCB). L'aumento dei costi dei materiali e dell'energia sta impatta...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

SMIC rientra nel packaging avanzato per potenziare la strategia sui chip AI

SMIC sta rafforzando la sua strategia sui chip AI, rientrando nel settore del packaging avanzato e ampliando il proprio team. Questa mossa sottolinea l'importanza crescente delle tecnicie di integrazione avanzata per le performance dei processori ded...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Il ritorno della CPU nell'AI: Intel e la diversificazione hardware

Intel evidenzia un crescente ritorno delle CPU a un ruolo centrale nell'AI, affiancato da una domanda in aumento per gli ASIC. Questo scenario indica una diversificazione delle architetture hardware, dove le aziende cercano soluzioni ottimizzate per ...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Intel e il rilancio delle CPU nell'era dell'AI: una ripresa in fase iniziale

Intel sta registrando una ripresa nel settore delle CPU, trainata in particolare dall'integrazione delle capacità di intelligenza artificiale. Questo segnale, sebbene ancora nelle fasi iniziali, evidenzia l'importanza crescente dell'AI nel ridisegnar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Intel punta sulle CPU come pilastro della crescita AI

Intel sta rafforzando la sua strategia nel campo dell'intelligenza artificiale, posizionando le CPU come componente fondamentale per l'espansione e l'adozione delle tecnicie AI. Questa mossa sottolinea il ruolo persistente dei processori generici in ...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Largan e Sunny Optical puntano a FAU per ottiche AI e Co-Packaged Optics

Le aziende Largan e Sunny Optical stanno intensificando gli sforzi nello sviluppo di unità ottiche a forma libera (FAU), fondamentali per l'avanzamento delle ottiche dedicate all'intelligenza artificiale e delle tecnicie Co-Packaged Optics (CPO). Que...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 Google AI Blog

Le TPU di Google affrontano i carichi AI più esigenti

Google ha sviluppato le sue Tensor Processing Units (TPU) per accelerare i carichi di lavoro di intelligenza artificiale, sempre più complessi. Queste unità specializzate sono cruciali per gestire le crescenti richieste di training e inference dei La...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Register AI

L'AI assorbe chip cruciali: a rischio le consegne di server tradizionali

La crescente domanda di soluzioni AI sta creando una nuova ondata di carenza di chip, colpendo componenti essenziali per i server generici. I fornitori stanno dirottando la capacità produttiva verso prodotti AI a più alto margine, mettendo a rischio ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Register AI

Tesla scommette sul processo 14A di Intel per i chip AI, ancora in sviluppo

Elon Musk ha annunciato l'intenzione di Tesla di produrre chip AI proprietari, affidandosi al processo produttivo 14A di Intel. Questa decisione rappresenta una scommessa significativa, dato che la tecnicia 14A è ancora in fase di sviluppo e non è an...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Tom's Hardware

Nvidia H200: Blocco delle vendite in Cina e la spinta all'industria locale

La Segretaria al Commercio degli Stati Uniti ha confermato che le GPU Nvidia H200 non sono state vendute alla Cina. Questa mossa riflette le restrizioni imposte dal governo cinese, volte a stimolare lo sviluppo della propria industria dei semicondutt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SpaceX e Tesla: strategie hardware tra GPU e chip custom

SpaceX esplora l'espansione delle capacità GPU, mentre Tesla si affida a Samsung per l'aggiornamento dei chip. Queste mosse evidenziano la crescente importanza del controllo sull'hardware e della capacità di calcolo per le aziende tech, influenzando ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Next Web

Microsoft investe A$25 miliardi in Australia per l'AI e la cybersecurity

Microsoft ha annunciato un investimento record di 25 miliardi di dollari australiani (circa 18 miliardi di dollari USA) in Australia entro il 2029. L'iniziativa, la più grande mai realizzata dall'azienda nel paese, mira a potenziare la capacità di su...

#Hardware #LLM On-Premise #DevOps
2026-04-23 DigiTimes

SaiMemory, NEDO e Intel: la memoria ZAM di nuova generazione per l'AI

SaiMemory ha ottenuto il sostegno di NEDO e stretto una partnership con Intel per lo sviluppo della memoria ZAM di prossima generazione. Questa tecnicia mira a superare i limiti delle attuali soluzioni di memoria, offrendo un potenziale significativo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SK Hynix: oltre metà della produzione NAND dedicata ai chip a 321 strati

SK Hynix ha annunciato un significativo riorientamento della sua produzione di memoria NAND, destinando oltre la metà del volume ai nuovi chip a 321 strati. Questa mossa strategica sottolinea l'impegno dell'azienda verso l'innovazione nella densità d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Texas Instruments: ripresa robusta grazie a domanda industriale e AI

Texas Instruments prevede una ripresa economica più marcata, trainata in particolare dalla crescente domanda nei settori industriale e dell'intelligenza artificiale. Questa tendenza evidenzia il ruolo cruciale dei semiconduttori nell'innovazione tecn...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

La domanda di AI rafforza il ciclo delle apparecchiature per semiconduttori

L'industria dei semiconduttori sta vivendo una ripresa, guidata in particolare dalla crescente domanda di intelligenza artificiale. Questo trend sta rafforzando il ciclo delle apparecchiature di produzione, con aziende come Lam Research che beneficia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Lam Research: l'AI sostiene la domanda di apparecchiature per semiconduttori

Lam Research ha segnalato un persistente slancio guidato dall'intelligenza artificiale, che si traduce in un miglioramento delle prospettive per il settore delle apparecchiature per la fabbricazione di wafer (WFE). Questo trend sottolinea la crescent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

TSMC punta al 2029 per i nodi A13 e A12, pilastri dei futuri chip AI

TSMC, leader mondiale nella produzione di semiconduttori, ha fissato il 2029 come obiettivo per l'avvio della produzione dei suoi prossimi nodi tecnicici A13 e A12. Questi processi produttivi avanzati sono destinati a diventare la base per la prossim...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Google presenta i nuovi TPU 8t e 8i per carichi di lavoro AI diversificati

Google Cloud ha annunciato i nuovi processori TPU 8t e 8i, progettati per rispondere alla crescente diversificazione dei carichi di lavoro di intelligenza artificiale. Questa mossa sottolinea l'esigenza di soluzioni hardware specializzate, sia per il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SK Hynix potenzia la produzione di HBM per l'AI con un nuovo hub a Cheongju

SK Hynix sta costruendo un nuovo centro di packaging per memorie HBM a Cheongju, Corea del Sud. L'iniziativa mira a espandere significativamente la capacità produttiva di memorie ad alta larghezza di banda, essenziali per alimentare la crescente doma...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ServeTheHome

Google presenta le nuove TPU 8i e 8t per inference e training AI

Google ha annunciato le sue nuove unità di elaborazione tensoriale (TPU) di ottava generazione, la TPU 8i e la TPU 8t. Progettate rispettivamente per l'inference e il training di modelli di intelligenza artificiale, queste soluzioni proprietarie mira...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

Google Cloud potenzia l'offerta AI con nuovi chip: la sfida a Nvidia continua

Google Cloud ha introdotto due nuovi chip AI, le Tensor Processing Unit (TPU), che promettono prestazioni superiori e costi inferiori rispetto alle generazioni precedenti. Questa mossa intensifica la competizione nel mercato degli acceleratori AI, tr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Ars Technica AI

Google presenta i nuovi TPU di ottava generazione per l'era degli agenti AI

Google ha svelato la sua ottava generazione di Tensor Processing Units (TPU), distaccandosi dall'adozione prevalente di acceleratori Nvidia. Questi nuovi chip, denominati TPU 8t per il training e TPU 8i per l'inference, sono progettati per l'emergent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

Google ridefinisce i TPU: architetture separate per training e inference

Google ha annunciato la disponibilità generale della sua settima generazione di TPU, Ironwood, e ha svelato l'ottava, composta da TPU 8t (per il training) e TPU 8i (per l'inference). Questa nuova strategia prevede chip dedicati, progettati rispettiva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Dinamiche di mercato e supply chain: l'impatto sull'infrastruttura AI

Un recente commento di mercato evidenzia come i potenziali cambiamenti strategici in attori chiave del settore tech possano generare incertezza nella supply chain globale. Queste dinamiche hanno implicazioni dirette per le organizzazioni che pianific...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Produttore cinese di PCB legato a Nvidia: debutto in borsa e spinta sull'AI

Un produttore cinese di circuiti stampati (PCB), con legami con Nvidia, ha registrato un forte aumento del valore delle sue azioni al debutto sulla borsa di Hong Kong. L'azienda ha annunciato piani strategici per espandere le proprie attività nel set...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Fornitori di Taiwan e l'onda dell'innovazione hardware per l'AI

I fornitori taiwanesi anticipano un rinnovato impulso all'innovazione, con implicazioni significative per l'hardware AI. Questo trend è cruciale per le aziende che valutano strategie di deployment on-premise per i Large Language Models, influenzando ...

#Hardware #Fine-Tuning
2026-04-22 The Register AI

L'importanza strategica dell'infrastruttura dati per l'AI su larga scala

L'avanzamento dell'intelligenza artificiale è intrinsecamente legato alla disponibilità e alla gestione dei dati. Per le aziende che mirano alla trasformazione industriale e all'innovazione, la costruzione e lo scaling di un'infrastruttura dati AI ro...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 The Register AI

Monitoraggio CPU: L'Eredità di Task Manager e le Sfide On-Premise

Il misuratore CPU del Task Manager, basato su semplici chiamate kernel, rappresenta un'epoca passata. Oggi, per i deployment on-premise di Large Language Models, è indispensabile un monitoraggio hardware granulare che vada oltre la CPU, includendo VR...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

L'AI Spinge la Memoria: i Ricavi ASML da HBM Superano la Logica nel 1Q26

Nel primo trimestre 2026, i ricavi di ASML derivanti dalla memoria hanno superato quelli dalla logica, un segnale della crescente domanda di High Bandwidth Memory (HBM) alimentata dall'intelligenza artificiale. Questa tendenza evidenzia l'impatto del...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

L'industria del design di sistemi elettronici in forte crescita nel 4Q25

L'industria del design di sistemi elettronici ha registrato una crescita a doppia cifra nel quarto trimestre del 2025, sostenuta da una robusta domanda di Silicio Intellectual Property (SIP) e servizi. Questo trend evidenzia l'importanza crescente di...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

Google e la corsa ai chip AI: la nuova fase della sfida con Nvidia

Google intensifica lo sviluppo dei propri chip AI, puntando a capitalizzare l'espansione dell'inference. Questa mossa segna una nuova fase nella competizione con Nvidia, evidenziando l'importanza di soluzioni hardware dedicate per i carichi di lavoro...

#Hardware #LLM On-Premise #DevOps
2026-04-21 DigiTimes

La domanda di AI spinge le valutazioni del silicio: impatto su TSMC e Nvidia

L'esplosione della domanda di intelligenza artificiale sta esercitando una pressione significativa sulla supply chain del silicio, influenzando le valutazioni di giganti come TSMC e Nvidia. Questo scenario pone nuove sfide per le aziende che valutano...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

Samsung migliora la produzione HBM4: Nvidia apprezza l'innovazione a 4nm

Samsung ha registrato progressi significativi nella produzione di memoria HBM4, un componente cruciale per gli acceleratori AI di prossima generazione. L'azienda ha anche implementato un aggiornamento del processo PMBIST a 4 nanometri, che ha ricevut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

Materiali ad alte prestazioni: un pilastro per l'AI on-premise

Le aziende tessili taiwanesi si espandono nei settori aerospaziale e dei droni, sfruttando materiali avanzati. Questa tendenza evidenzia l'importanza critica di tali innovazioni per lo sviluppo di hardware robusto e performante, fondamentale per le i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 The Register AI

L'impatto energetico dell'AI: il Regno Unito valuta chip a basso consumo

Un comitato parlamentare nel Regno Unito ha avviato un'indagine sui design di chip emergenti e a basso consumo energetico. L'obiettivo è affrontare il crescente fabbisogno energetico dell'intelligenza artificiale, che rischia di sovraccaricare la ret...

#Hardware #LLM On-Premise #DevOps
2026-04-20 DigiTimes

La corsa ai chip AI: substrati ABF esauriti per i fornitori chiave

La crescente domanda di chip AI sta mettendo sotto pressione la catena di approvvigionamento, con i substrati ABF (Ajinomoto Build-up Film) che risultano esauriti presso i principali fornitori come Unimicron, Kinsus e Nan Ya PCB. Questa carenza evide...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 The Register AI

L'inflazione delle risorse AI: un costo strutturale per i deployment on-premise

L'aumento della domanda di risorse computazionali per l'intelligenza artificiale, in particolare per i Large Language Models, rappresenta un costo strutturale che impatta profondamente le strategie di deployment. Le organizzazioni che valutano soluzi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

Google e Marvell: una potenziale alleanza per sfidare Nvidia nel silicio AI

Una potenziale partnership tra Google e Marvell potrebbe intensificare la competizione nel mercato dei chip AI, storicamente dominato da Nvidia. Questa mossa strategica riflette la crescente domanda di soluzioni hardware personalizzate e ottimizzate ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-18 DigiTimes

H3C si espande nel Sud-est asiatico: Singapore polo per l'AI cinese

H3C rafforza la sua presenza nel Sud-est asiatico, con Singapore che emerge come centro strategico per i fornitori cinesi di soluzioni AI. Questa espansione evidenzia la crescente domanda di infrastrutture locali per l'intelligenza artificiale, un fa...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-18 DigiTimes

Fragilità della Supply Chain Hardware AI: Impatto sui Deployment On-Premise

Le interruzioni nella produzione di componenti elettronici evidenziano la vulnerabilità delle supply chain globali. Questo scenario ha implicazioni dirette per le aziende che valutano deployment di Large Language Models (LLM) on-premise, influenzando...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-18 DigiTimes

TSMC e il futuro dell'AI on-premise: segnali dal mercato dei semiconduttori

L'analisi delle comunicazioni finanziarie di TSMC, leader nella produzione di semiconduttori, offre spunti cruciali per chi pianifica infrastrutture AI on-premise. Sebbene i dettagli specifici di un futuro earnings call siano ancora da definire, il c...

#Hardware #LLM On-Premise #DevOps
2026-04-17 The Next Web

AlixLabs raccoglie 15 milioni di euro per l'etching atomico dei semiconduttori

AlixLabs, startup svedese specializzata in deep-tech per semiconduttori, ha completato un round di finanziamento Series A da 15 milioni di euro. L'azienda, con sede a Lund, sta sviluppando la tecnicia Atomic Pitch Splitting (APS™), un innovativo proc...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-17 DigiTimes

OpenAI e la spinta HBM: la nuova corsa agli armamenti della memoria AI

La mossa di OpenAI verso la memoria HBM evidenzia una crescente competizione nel settore dell'intelligenza artificiale per l'approvvigionamento di componenti hardware cruciali. Questa "corsa agli armamenti" della memoria ad alta larghezza di banda so...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic