Topic / Trend Rising

Hardware AI e Industria dei Semiconduttori

Questa tendenza copre la rapida evoluzione nella progettazione, produzione e prestazioni dei chip specifici per l'AI come GPU, TPU, ASIC e HBM. Sottolinea l'intensa competizione e l'importanza strategica della tecnicia avanzata dei semiconduttori per i carichi di lavoro AI.

Detected: 2026-05-06 · Updated: 2026-05-06

Articoli Correlati

2026-05-06 DigiTimes

L'AI rivoluziona il testing dei semiconduttori: la visione del CEO di AEM

Il CEO di AEM evidenzia come l'intelligenza artificiale stia trasformando radicalmente il settore del testing dei semiconduttori. Questa evoluzione impone nuove sfide e opportunità per l'industria, spingendo verso l'adozione di soluzioni più efficien...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Flex: prospettive 2027 superate e spin-off dell'unità data center AI

Flex ha annunciato prospettive finanziarie per il 2027 superiori alle attese e il piano di scorporare la sua unità dedicata ai data center per l'intelligenza artificiale. Questa mossa strategica evidenzia la crescente importanza dell'infrastruttura A...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Airoha di MediaTek punta alla crescita ottica per il networking AI

Airoha, un'unità di MediaTek, sta orientando i suoi sforzi verso il settore del networking per l'intelligenza artificiale. L'azienda mira a una "crescita ottica tripla", sottolineando l'importanza delle interconnessioni ad alta velocità per supportar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

AMD e l'IA: il ritorno dei processori al centro della scena

L'intelligenza artificiale sta ridefinendo il ruolo dei processori (CPU) nell'infrastruttura IT. Le recenti dichiarazioni di AMD, tramite la CEO Lisa Su, evidenziano come l'IA stia riportando le CPU al centro dell'attenzione, influenzando le strategi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Lumentum: la domanda di AI spinge risultati record e l'espansione nel settore

Lumentum, fornitore chiave di componenti ottici, registra una crescita esplosiva e risultati finanziari record, trainata dalla crescente domanda nel settore dell'intelligenza artificiale. Questo trend evidenzia l'importanza critica dell'infrastruttur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

AMD alza le previsioni: la domanda di AI spinge la crescita dei data center

AMD ha rivisto al rialzo le proprie previsioni finanziarie, citando una robusta domanda di soluzioni AI che alimenta l'espansione dei data center. Questo trend sottolinea la crescente necessità di hardware dedicato per carichi di lavoro di intelligen...

#Hardware #LLM On-Premise #DevOps
2026-05-05 LocalLLaMA

AMD Strix Halo e llama.cpp: MTP accelera l'inference LLM on-premise

Un recente esperimento ha dimostrato un significativo incremento delle performance nell'inference di Large Language Models (LLM) su hardware AMD Strix Halo, utilizzando `llama.cpp` con il supporto Multi-Token Prediction (MTP). La configurazione, basa...

#Hardware #LLM On-Premise #DevOps
2026-05-05 The Register AI

Astera Labs presenta un'alternativa a NVSwitch per sistemi AI su scala rack

Astera Labs ha introdotto una soluzione di connettività ad alta velocità per sistemi AI su scala rack, posizionandosi come alternativa a NVSwitch di Nvidia. La tecnicia promette compatibilità con un'ampia gamma di acceleratori, offrendo maggiore fles...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 The Next Web

La Volatilità del Mercato dei Chip AI: Il Caso Intel e le Sfide On-Premise

Il percorso di Intel nel mercato dei chip AI, da una posizione di svantaggio nel 2025 a un massimo storico nel 2026, evidenzia la rapida evoluzione del settore. Questo contesto sottolinea l'importanza di strategie infrastrutturali robuste per i deplo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 Tom's Hardware

JSR e TSMC: investimento strategico a Taiwan per i fotoresist avanzati

JSR e TSMC collaboreranno alla costruzione di un nuovo impianto per fotoresist avanzati a Taiwan, con un investimento multimilionario. L'operazione, prevista per il 2028, mira a rafforzare la filiera produttiva dei semiconduttori, essenziale per la r...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 The Next Web

Intel rafforza la divisione AI e Client Computing con un veterano Qualcomm

Intel ha annunciato l'ingresso di Alex Katouzian, ex dirigente Qualcomm con 25 anni di esperienza nei settori mobile, compute e realtà estesa. Katouzian guiderà la nuova divisione Client Computing e Physical AI, riflettendo la strategia di Intel di a...

#Hardware #LLM On-Premise #DevOps
2026-05-05 The Next Web

Apple esplora Intel e Samsung per i chip M-series: fine del monopolio TSMC?

Apple ha avviato discussioni preliminari con Intel e Samsung per la produzione di alcuni dei suoi chip M-series. Questa mossa segna un potenziale cambiamento nella strategia di approvvigionamento di silicio dell'azienda, che per quasi un decennio si ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La Spinta di Google con le TPU Sfida il Dominio di Nvidia nel Neocloud AI

Google intensifica la sua offerta di Tensor Processing Units (TPU), mettendo sotto pressione la consolidata leadership di Nvidia nel mercato dell'infrastruttura AI basata su cloud. Questa competizione ridefinisce le dinamiche per le aziende che valut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

Ardentec avvia il testing di ASIC per AI a Longtan nel 3Q26

Ardentec, azienda specializzata nel testing di semiconduttori, ha annunciato l'avvio delle attività di testing per i suoi ASIC dedicati all'intelligenza artificiale presso lo stabilimento di Longtan, con inizio previsto nel terzo trimestre del 2026. ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La Corea del Sud punta sulla memoria per l'AI, sfidando il dominio Nvidia

Un recente rapporto di DIGITIMES indica che la Corea del Sud sta esplorando una strategia "memory-led" per l'intelligenza artificiale. Questa mossa suggerisce un potenziale approccio alternativo o competitivo rispetto all'attuale leadership di Nvidia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

AI e chip: gli Stati Uniti tornano in vetta agli scambi con Taiwan

L'accelerazione nello sviluppo dell'intelligenza artificiale e la crescente domanda di semiconduttori avanzati hanno spinto gli Stati Uniti a riconquistare la posizione di principale partner commerciale di Taiwan. Questo scenario evidenzia la central...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

MediaTek: la crescita degli ASIC mira al 60% di quota di mercato

MediaTek sta consolidando la sua posizione nel settore degli ASIC, con un'espansione che potrebbe portare l'azienda a raggiungere il 60% della quota di mercato nel segmento. Questo sviluppo riflette un'evoluzione strategica verso soluzioni a più alto...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La domanda di HPC per l'AI spinge CHPT a ricavi record ad aprile

CHPT ha registrato un fatturato record ad aprile, un risultato trainato dalla crescente domanda di High-Performance Computing (HPC) alimentata dai carichi di lavoro dell'intelligenza artificiale. Questo dato evidenzia l'impatto significativo dell'AI ...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

Onsemi punta sui data center AI e Treo per la ripresa di ricavi e margini

Onsemi, azienda leader nel settore dei semiconduttori, ha individuato nei data center dedicati all'intelligenza artificiale e nel suo segmento Treo i principali motori per la crescita futura. Questa strategia mira a rafforzare la posizione dell'azien...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

Crisi CoWoS e le incertezze su Intel: uno sguardo al mercato AI

La carenza di capacità produttiva CoWoS, essenziale per i chip AI avanzati, sta creando tensioni nel mercato. L'assunzione di Dr. Douglas Yu da parte di MediaTek e le crescenti domande sulla capacità di Intel di soddisfare la domanda evidenziano le s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 TechCrunch AI

Cerebras, partner strategico di OpenAI, si prepara a un'IPO miliardaria

Cerebras, azienda produttrice di chip per l'intelligenza artificiale, sta per lanciare un'offerta pubblica iniziale (IPO) che potrebbe valutarla oltre 26,6 miliardi di dollari. La sua stretta collaborazione con OpenAI evidenzia l'importanza delle par...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 Phoronix

ROCm 7.2.3: Aggiornamenti Minori e Documentazione XIO per lo Stack AMD AI

AMD ha rilasciato ROCm 7.2.3, un aggiornamento minore per il suo stack open source di calcolo GPU e AI. Questa versione, disponibile a meno di un mese dalla precedente, introduce miglioramenti e rende disponibile la documentazione per ROCm XIO. L'agg...

#Hardware #LLM On-Premise #DevOps
2026-05-04 Tom's Hardware

AMD Ryzen AI 5 435G: Un Nuovo Chip Zen 5 Per l'AI Locale

AMD ha svelato la APU Ryzen AI 5 435G, un processore a sei core basato sull'architettura Zen 5 con capacità AI integrate. Destinato a sistemi a basso costo, si confronta con il Ryzen 5 8600G, promettendo nuove opportunità per l'inference locale e l'e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 Tom's Hardware

Intel Arc Pro B70: 32GB di VRAM per workstation, performance raddoppiate

La nuova GPU Intel Arc Pro B70, dotata di 32GB di VRAM, mostra prestazioni significative nei test. Con una velocità media circa doppia rispetto alla Arc B580 e la capacità di superare la RTX 5060 Ti in alcuni scenari, si posiziona come un'opzione int...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 LocalLLaMA

AMD Strix Halo: 192GB di Memoria per LLM On-Premise, un Nuovo Orizzonte?

Le recenti indiscrezioni suggeriscono che il prossimo APU AMD Strix Halo, noto come "Gorgon Halo 495 Max" o "Ryzen AI Max Pro 495", potrebbe integrare 192GB di memoria. Questa capacità, abbinata a una iGPU Radeon 8065S, rappresenterebbe un significat...

#Hardware #LLM On-Premise #DevOps
2026-05-04 DigiTimes

Corea del Sud punta a 260.000 GPU: dipendenza da Taiwan e la sfida AI

L'ambizioso piano della Corea del Sud di acquisire 260.000 GPU per le iniziative AI evidenzia una dipendenza critica dalla produzione taiwanese. Come sottolineato dal presidente di DIGITIMES, questo scenario enfatizza l'importanza della collaborazion...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Sciopero Samsung: rischi HBM per l'AI e la supply chain on-premise

Uno sciopero in Samsung solleva preoccupazioni sulla fornitura di High Bandwidth Memory (HBM), componente cruciale per le GPU AI. La potenziale interruzione evidenzia la fragilità della supply chain tecnicica e le sue implicazioni per i deployment di...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

L'accelerazione ottica: i Micro LED di Taiwan per i data center AI

I fornitori taiwanesi di Micro LED stanno intensificando gli sforzi sui collegamenti ottici per i data center dedicati all'intelligenza artificiale. Questa tendenza sottolinea la crescente domanda di connettività ad alta velocità e bassa latenza, ess...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Cerebras punta a un'IPO da 40 miliardi e sfida Nvidia nel mercato dei chip AI

Cerebras, azienda specializzata in chip per l'intelligenza artificiale, sta valutando un'offerta pubblica iniziale che potrebbe valutarla fino a 40 miliardi di dollari. La mossa posiziona l'azienda come un concorrente diretto di Nvidia, leader nel se...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Il boom dell'hardware AI: impatto sulla supply chain e i componenti passivi

Pierre Chen di Yageo evidenzia come la rapida espansione del settore hardware per l'intelligenza artificiale stia generando un incremento significativo nella domanda di componenti passivi. Questo fenomeno, cruciale per la produzione di server e GPU a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Delta Electronics: Ricavi e margini record nel Q1 trainati dai data center AI

Delta Electronics ha annunciato risultati finanziari eccezionali per il primo trimestre, con ricavi e margini record. Questa crescita è attribuita all'impennata della domanda per i data center dedicati all'intelligenza artificiale. Il fenomeno eviden...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-03 LocalLLaMA

Hummingbird+: FPGA a basso costo per l'Inference di LLM

Un nuovo studio presenta Hummingbird+, una soluzione basata su FPGA a basso costo progettata per l'inference di Large Language Models. Il sistema, con un costo di produzione stimato di 150 dollari, è in grado di eseguire il modello Qwen3-30B-A3B con ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-02 Phoronix

Linux 7.1-rc2: Aggiornamenti per le GPU AMD meno recenti

La prossima release del kernel Linux, la versione 7.1-rc2, introduce una serie di aggiornamenti e correzioni per i driver Direct Rendering Manager (DRM). Questi interventi sono specificamente mirati a migliorare il supporto e la stabilità delle GPU A...

#Hardware #LLM On-Premise #DevOps
2026-05-01 LocalLLaMA

Intel Auto-Round: la Quantization SOTA per LLM su CPU, XPU e CUDA

Intel ha rilasciato Auto-Round, un algoritmo di quantization all'avanguardia progettato per ottimizzare l'inference di LLM a bassa precisione con elevata accuratezza. La soluzione è compatibile con CPU, XPU e CUDA, supporta molteplici tipi di dati e ...

#Hardware #LLM On-Premise #DevOps
2026-05-01 Phoronix

AMD introduce il supporto HDMI 2.1 FRL per il driver Linux AMDGPU

AMD ha rilasciato patch ufficiali per il suo driver grafico AMDGPU su Linux, introducendo il supporto per HDMI Fixed Rate Link (FRL). Questa implementazione, sebbene non costituisca il supporto completo a HDMI 2.1, è un passo significativo. La tecnic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 Tom's Hardware

La roadmap di ASML: dal DUV all'EUV, il futuro della litografia per i chip AI

ASML, attore chiave nella produzione di semiconduttori, delinea la sua roadmap per le tecnicie di litografia, dal DUV all'EUV avanzato. Questi progressi sono fondamentali per lo sviluppo di chip sempre più potenti, essenziali per l'inference e il tra...

#Hardware #LLM On-Premise #DevOps
2026-05-01 The Next Web

Thomas Reardon e la sfida dell'AI a basso consumo: pensare con soli 20 watt

Thomas Reardon, noto per aver creato Internet Explorer e co-fondato CTRL-labs, si dedica a una nuova sfida: sviluppare un'intelligenza artificiale capace di "pensare" consumando appena 20 watt. Questo obiettivo ambizioso mira a ridefinire l'efficienz...

#Hardware #LLM On-Premise #DevOps
2026-05-01 DigiTimes

Advantest e il Test dei Chip AI: Bilancio Positivo e Prospettive Cautelative

Advantest, leader nel testing di semiconduttori, ha superato le aspettative grazie alla domanda di chip AI. Nonostante i buoni risultati, le prospettive future più caute hanno influenzato il valore delle azioni. Questo scenario evidenzia la complessi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 Phoronix

Linux 7.2: Scheduler DRM 'Fair' e Integrazione Hardware AIE4 AMDXDNA

Il prossimo kernel Linux 7.2, atteso per l'estate, introdurrà importanti novità per la gestione delle risorse hardware. Tra queste, spicca l'adozione di una priorità predefinita 'Fair' per lo scheduler DRM, volta a ottimizzare l'allocazione delle ris...

#Hardware #LLM On-Premise #DevOps
2026-04-30 LocalLLaMA

AMD Halo Box: Un'occhiata al sistema demo con Ryzen 395 e 128GB di RAM

Un'unità dimostrativa AMD, denominata "Halo Box", è emersa online, mostrando un sistema equipaggiato con un processore Ryzen 395 e 128GB di memoria RAM. Questo dispositivo, che esegue Ubuntu e presenta una striscia luminosa programmabile, offre uno s...

#Hardware #LLM On-Premise #DevOps
2026-04-30 DigiTimes

Google e il futuro dei chip AI: la svolta verso acceleratori specializzati

Google sta orientando lo sviluppo dei suoi chip TPU verso soluzioni più specializzate, abbandonando l'approccio universale. Questa evoluzione riflette una tendenza del settore AI che privilegia l'efficienza e le performance per carichi di lavoro spec...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 Tom's Hardware

Cambricon: ricavi Q1 a 423 milioni e la spinta del silicio cinese per l'AI

Cambricon, produttore cinese di GPU, ha registrato un fatturato di 423 milioni di dollari nel primo trimestre, evidenziando la rapida crescita del mercato locale dei chip AI. Questo scenario suggerisce una crescente competizione per Nvidia, con i pro...

#Hardware #LLM On-Premise #DevOps
2026-04-30 DigiTimes

Episil triplica il capex: la fotonica su silicio al centro della strategia AI

Il produttore taiwanese di wafer Episil ha annunciato un significativo aumento del capitale d'investimento (capex), triplicandolo per accelerare lo sviluppo e la produzione di soluzioni basate sulla fotonica su silicio. Questa mossa strategica mira a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 DigiTimes

L'industria ottica di Taiwan e il suo ruolo nell'era dell'AI imaging

L'industria ottica di Taiwan sta ridefinendo il proprio ruolo strategico nell'ecosistema dell'AI imaging. Questo sviluppo sottolinea l'importanza di componenti hardware avanzati per l'acquisizione e l'elaborazione dei dati visivi, un aspetto cruciale...

#Hardware #LLM On-Premise #DevOps
2026-04-30 DigiTimes

Cambricon: Crescita dei Ricavi Spinta dalla Domanda di Calcolo AI

Cambricon, azienda specializzata in chip AI, ha registrato un significativo aumento dei ricavi, trainato dalla crescente domanda di capacità di calcolo per l'intelligenza artificiale. Questo trend evidenzia l'importanza strategica dell'hardware dedic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 The Register AI

Google Cloud apre le TPU ai clienti esterni: diversificazione e spinta AI

Google Cloud ha annunciato la disponibilità delle proprie unità di elaborazione tensoriale (TPU) personalizzate per una selezione di clienti. Questa iniziativa risponde alla crescente domanda di hardware specializzato per l'intelligenza artificiale e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 DigiTimes

Samsung e la stabilità del 4nm: un pilastro per AI e automotive

Samsung ha posto l'accento sulla stabilità della sua tecnicia di processo a 4 nanometri, evidenziando come questa sia cruciale per soddisfare la crescente domanda proveniente dai settori dell'intelligenza artificiale e dell'automotive. La capacità di...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 DigiTimes

Qualcomm tra sfide immediate e l'avanzata nel mercato data center

Qualcomm sta affrontando delle difficoltà nel breve termine, ma la sua strategia per il mercato dei data center sta mostrando progressi. Questo scenario evidenzia la complessità del settore dei semiconduttori, dove l'innovazione e l'espansione in nuo...

#Hardware #LLM On-Premise #DevOps
2026-04-29 DigiTimes

Nvidia e la corsa ai chip AI: la visione del CEO sui TPU di Google

Il CEO di Nvidia ha espresso la sua prospettiva sulla competizione nel mercato dei chip per l'intelligenza artificiale, affermando che i TPU di Google non rappresentano una minaccia significativa. Questa dichiarazione si inserisce in un contesto di c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

La carenza di TPU di Google e la sfida dell'infrastruttura AI

La carenza di Tensor Processing Units (TPU) di Google sta mettendo in luce una crescente disparità nell'infrastruttura dedicata all'intelligenza artificiale. Questo scenario evidenzia come l'accesso a hardware specializzato sia cruciale per lo svilup...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 Phoronix

Intel Lunar Lake: l'evoluzione delle performance CPU su Linux

L'analisi si concentra sull'evoluzione delle performance della CPU Intel Lunar Lake su sistemi Linux. Dopo aver esaminato i guadagni prestazionali della grafica integrata Xe2, l'attenzione si sposta sulle capacità di calcolo del processore. I benchma...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 Phoronix

OpenCL introduce estensioni Cooperative Matrix per l'Inference AI

L'API OpenCL sta integrando estensioni Cooperative Matrix, una mossa che segue l'introduzione di funzionalità simili in Vulkan nel 2023. Queste estensioni sono progettate per ottimizzare le operazioni di Inference di machine learning e intelligenza a...

#Hardware #LLM On-Premise #DevOps
2026-04-29 PyTorch Blog

AutoSP: Semplificare il Training di LLM con Contesti Estesi su Multi-GPU

AutoSP, una soluzione basata su compilatore, automatizza l'implementazione della Sequence Parallelism (SP) per il training di Large Language Models (LLM) con contesti lunghi. Integrato in DeepSpeed, risolve i problemi di memoria (OOM) e la complessit...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 LocalLLaMA

llama.cpp: NVFP4 nativo accelera l'elaborazione dei prompt su Blackwell

Un recente benchmark su llama.cpp rivela che il supporto nativo per NVFP4 migliora significativamente le prestazioni di elaborazione dei prompt (fino al 68%) per il modello Qwen3.6-27B-NVFP4 su una GPU NVIDIA RTX 5090. La velocità di generazione dei ...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic