Topic / Trend Rising

Infrastrutture AI e Pipeline di Fornitura Semiconduttori

Ingenti investimenti stanno affluendo nelle infrastrutture AI, inclusi server, soluzioni di raffreddamento avanzate e chip specializzati, alimentando una crescita significativa nella catena di fornitura dei semiconduttori. Questa espansione affronta sfide legate a carenze di materiali, dispute sindacali e preoccupazioni ambientali per il consumo energetico dei data center.

Detected: 2026-05-16 · Updated: 2026-05-16

Articoli Correlati

2026-05-15 TechCrunch AI

L'onda energetica dell'AI: Lake Tahoe e il rincaro dei costi

La crescente domanda di energia generata dall'intelligenza artificiale sta iniziando a manifestarsi con rincari significativi, come evidenziato dalla situazione a Lake Tahoe. Questa località, meta prediletta della Silicon Valley, si prepara ad affron...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 Tom's Hardware

xAI: Colossus 1 riallocato per inference, Colossus 2 punterà su Blackwell

Il supercomputer Colossus 1 di xAI, inizialmente destinato all'addestramento di Grok, è stato riallocato per carichi di lavoro di inference da Anthropic a causa della sua architettura mista inefficiente. Nel frattempo, Elon Musk sta preparando Coloss...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 The Next Web

Samsung e il Dialogo Sindacale: Riflessi sulla Pipeline di Fornitura Tech

Samsung Electronics ha riaperto il dialogo con il suo sindacato principale, eliminando le precondizioni per i negoziati. Le discussioni potrebbero riprendere il 7 giugno, dopo la conclusione di uno sciopero di 18 giorni. Questo sviluppo, pur riguarda...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 DigiTimes

Crisi energetica e RE100: Taiwan rischia gli ordini tech globali

Ping Cheng, presidente di Delta Electronics, ha lanciato un allarme sui potenziali ritardi nell'adesione di Taiwan all'iniziativa RE100. La carenza di energia verde potrebbe compromettere la capacità dell'isola di soddisfare gli impegni di sostenibil...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 DigiTimes

Nvidia Vera Rubin: risolti i problemi, produzione in rampa per il 3Q26

Nvidia avrebbe risolto le problematiche relative alla sua prossima piattaforma Vera Rubin, con la filiera produttiva che punta a un'accelerazione delle consegne nel terzo trimestre del 2026. Questa tempistica è cruciale per le aziende che pianificano...

#Hardware #LLM On-Premise #DevOps
2026-05-15 DigiTimes

AAEON: L'onda dell'AI alimenta la crescita e gli ordini, strategia al 2026

AAEON, un fornitore di soluzioni hardware, sta registrando un aumento significativo degli ordini, trainato dalla crescente domanda nel settore dell'intelligenza artificiale. Questo trend si inserisce in un piano di crescita strategico che l'azienda h...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 DigiTimes

Phison aiDAPTIV e Dimensity 9500: spinta all'AI sull'edge

Phison ha presentato aiDAPTIV, una soluzione progettata per accelerare il deployment di carichi di lavoro AI direttamente sull'edge. L'integrazione con il processore Dimensity 9500 di MediaTek evidenzia un focus sull'ottimizzazione delle performance ...

#Hardware #LLM On-Premise #DevOps
2026-05-15 DigiTimes

Pan-International: la svolta strategica verso server AI e motori AFM

Pan-International ha annunciato un significativo riorientamento strategico, puntando sui server AI e sui motori AFM per generare oltre la metà del proprio fatturato entro il 2030. Questa mossa evidenzia una chiara direzione verso settori ad alta cres...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-15 DigiTimes

Nan Ya PCB punta sui substrati IC di fascia alta per l'AI

Nan Ya PCB sta intensificando la produzione di substrati per circuiti integrati di fascia alta, rispondendo alla crescente domanda del mercato dell'intelligenza artificiale. Questa mossa strategica sottolinea l'importanza dei componenti hardware avan...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-14 The Next Web

Samsung: sciopero in vista, a rischio i chip di memoria per l'AI

Il principale sindacato di Samsung Electronics si prepara a uno sciopero di 18 giorni, minacciando la fornitura di chip di memoria cruciali per l'AI. La disputa salariale e la formula dei bonus sono al centro del conflitto, che potrebbe avere ripercu...

#Hardware #LLM On-Premise #DevOps
2026-05-14 DigiTimes

TSMC accelera sulla produzione di chip AI: espansione CoWoS e SoIC

TSMC, il principale produttore di semiconduttori, sta aumentando significativamente la capacità produttiva delle sue tecnicie di packaging avanzato, CoWoS e SoIC. Questa mossa risponde alla crescente domanda di acceleratori AI, in particolare per i L...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-14 The Next Web

Memristor a 700°C: la svolta di Tetramem per l'AI in ambienti estremi

Una startup sta sviluppando chip AI basati su memristor capaci di operare a temperature estreme, fino a 700 gradi Celsius. Questa innovazione promette di estendere le capacità di calcolo dell'intelligenza artificiale in contesti inaccessibili alle GP...

#Hardware #LLM On-Premise #DevOps
2026-05-14 DigiTimes

TSMC: L'espansione dell'AI spinge la domanda di packaging avanzato

Durante il suo recente simposio, TSMC ha evidenziato la significativa espansione dell'AI e la crescente richiesta di soluzioni di packaging avanzato. Questo trend sottolinea l'importanza critica di tecnicie di integrazione sempre più sofisticate per ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-14 DigiTimes

L'ondata dell'AI accende la corsa ai brevetti nel raffreddamento server

L'esplosione dell'intelligenza artificiale sta catalizzando una corsa all'innovazione nel raffreddamento dei server. Le aziende taiwanesi emergono come leader globali in questa competizione per sviluppare soluzioni efficienti. Questo fenomeno sottoli...

#Hardware #LLM On-Premise #DevOps
2026-05-14 DigiTimes

Semiconduttori: la forza lavoro in Asia e le sfide per l'AI on-premise

Le recenti tensioni lavorative in Samsung mettono in luce le diverse dinamiche della forza lavoro nel settore dei semiconduttori tra Taiwan e Corea del Sud. Queste differenze influenzano la stabilità della catena di fornitura globale, con ripercussio...

#Hardware #LLM On-Premise #DevOps
2026-05-14 DigiTimes

Asus: ricavi record tra domanda di server AI e costi dei componenti

Asus ha registrato ricavi record, riflettendo una crescente esposizione alla domanda di server per l'intelligenza artificiale. Questo successo si accompagna però a un aumento dei costi dei componenti, un fattore che incide sulle strategie di deployme...

#Hardware #LLM On-Premise #DevOps
2026-05-14 DigiTimes

OpenAI e Cerebras: la mossa che ridefinisce la supply chain dell'AI

OpenAI sta esplorando nuove partnership strategiche, come quella con Cerebras, per diversificare la propria supply chain nell'ambito dell'intelligenza artificiale. Questa mossa evidenzia una tendenza crescente nel settore verso la ricerca di soluzion...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-14 DigiTimes

Foxconn: Ordini Server AI e Ottiche Co-Packaged al Centro dell'Attenzione

Foxconn si prepara a un briefing chiave per gli investitori, dove si attendono chiarimenti sugli ordini di server AI e sulla commercializzazione delle ottiche co-packaged (CPO). L'incontro delineerà la strategia del colosso manifatturiero nel crescen...

#Hardware #LLM On-Premise #DevOps
2026-05-13 TechCrunch AI

xAI e le turbine a gas: le sfide energetiche dei data center per l'AI

Il data center Colossus 2 di xAI in Mississippi è al centro di una controversia legale per l'utilizzo di quasi 50 turbine a gas "mobili" come fonte di alimentazione. Questo caso evidenzia le complesse sfide infrastrutturali e i requisiti energetici m...

#Hardware #LLM On-Premise #DevOps
2026-05-13 Phoronix

Intel potenzia il Compute Runtime: nuove funzionalità per Xe3P e Nova Lake P

Intel ha rilasciato una nuova versione del suo Compute Runtime open source, la 26.18.38308.1. L'aggiornamento estende il supporto per OpenCL e Level Zero all'hardware grafico integrato e discreto dell'azienda, introducendo l'abilitazione per Xe3P e i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-13 DigiTimes

La Domanda di AI Spinge Zhen Ding: Boom di Server e Substrati Chip

Zhen Ding, fornitore chiave nel settore dell'elettronica, sta registrando una crescita significativa nelle vendite di server e substrati per chip. Questo incremento è direttamente correlato all'impennata della domanda globale di soluzioni di intellig...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-13 DigiTimes

ASPEED: la domanda di server AI spinge la crescita e rafforza il mercato BMC

ASPEED registra una crescita sostenuta, trainata dalla crescente domanda di server per l'intelligenza artificiale. Questo scenario rafforza le prospettive del mercato dei Baseboard Management Controller (BMC), componenti cruciali per la gestione e il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-13 DigiTimes

Il Ritorno di Samsung Foundry: Chip AI e HBM4 Spingono la Domanda per i 4nm

Samsung Foundry sta vivendo una fase di rilancio significativo, trainata dalla crescente domanda di chip per l'intelligenza artificiale. L'adozione della tecnicia HBM4 e l'avanzamento dei processi produttivi a 4 nanometri sono fattori chiave che stan...

#Hardware #LLM On-Premise #DevOps
2026-05-13 DigiTimes

Singapore promuove un'alleanza sui semiconduttori ASEAN per l'era dell'AI

Singapore sta guidando un'iniziativa per creare un'alleanza regionale sui semiconduttori all'interno dell'ASEAN. L'obiettivo è rafforzare la catena di fornitura globale, sempre più influenzata dalla crescente domanda di intelligenza artificiale. Ques...

#Hardware #LLM On-Premise #DevOps
2026-05-12 Ars Technica AI

L'AI a portata di casa: SPAN propone data center distribuiti

SPAN, una startup di San Francisco, sta testando una soluzione innovativa per il deployment di capacità di calcolo AI. Il progetto prevede l'installazione di migliaia di nodi XFRA, piccoli data center equipaggiati con GPU Nvidia RTX Pro 6000 Blackwel...

#Hardware #LLM On-Premise #DevOps
2026-05-12 DigiTimes

Applied Materials e TSMC: una partnership strategica per i chip AI

Applied Materials e TSMC hanno annunciato una collaborazione presso l'EPIC Center per accelerare lo sviluppo di chip dedicati all'intelligenza artificiale. Questa iniziativa mira a ottimizzare i processi produttivi e le tecnicie di base, con implicaz...

#Hardware #LLM On-Premise #DevOps
2026-05-12 DigiTimes

Crescita dei server AI a Taiwan: un ecosistema in espansione

Il mercato dei server AI a Taiwan sta vivendo una fase di espansione significativa, con benefici che si estendono oltre il ruolo consolidato di TSMC. Questa diversificazione indica una maturazione della supply chain locale, offrendo nuove opportunità...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-12 DigiTimes

Soluzioni termiche per server AI: Taiwan guida la crescita fino al 2026

Il crescente fabbisogno di server AI ad alte prestazioni sta alimentando un boom per le aziende taiwanesi specializzate in soluzioni termiche. Entro il 2026, si prevede che aziende come AVC e Auras guideranno una significativa espansione del mercato,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-12 DigiTimes

Nvidia e Corning rafforzano la partnership: la fibra ottica al centro dell'AI

Nvidia sta intensificando la sua collaborazione con Corning, puntando sulla fibra ottica per le infrastrutture AI. Questa transizione dal rame al silicio ottico è cruciale per supportare le crescenti esigenze di larghezza di banda e latenza dei Large...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-12 DigiTimes

Cresce la domanda di CPU Arm per AGI, l'offerta è a rischio

La richiesta di CPU Arm destinate a carichi di lavoro di intelligenza artificiale generale (AGI) sta subendo un'impennata, sollevando preoccupazioni riguardo a potenziali vincoli nella catena di fornitura. Questa situazione evidenzia le sfide infrast...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 Tom's Hardware

AMD: Nuova GPU RDNA 4 entry-level con 8GB VRAM e 2048 core in arrivo

Voci di corridoio suggeriscono che AMD stia preparando una GPU RDNA 4 di fascia entry-level, la RX 9050, dotata di 8GB di VRAM e 2048 core. Questa potenziale aggiunta alla gamma Radeon potrebbe offrire nuove opzioni per carichi di lavoro AI più legge...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 Phoronix

System76 Thelio Major: la workstation Linux all-AMD per carichi AI

System76 ha presentato la workstation Thelio Major, un sistema Linux di fascia alta completamente basato su hardware AMD. Dotata di processori Ryzen Threadripper 9000 e grafica Radeon AI PRO R9700, questa macchina offre una soluzione potente e open-s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 TechCrunch AI

Cowboy Space punta ai data center in orbita: 275 milioni per i razzi di lancio

Cowboy Space Corporation ha raccolto 275 milioni di dollari per realizzare la sua ambiziosa visione: posizionare data center nello spazio. L'azienda intende affrontare la carenza di capacità di lancio sviluppando i propri razzi, un passo fondamentale...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 Tom's Hardware

Intel e SK Hynix: accordo sul packaging per l'integrazione HBM

Le azioni di Intel e SK Hynix hanno registrato un'impennata a seguito delle indiscrezioni su una potenziale partnership strategica nel campo del packaging dei chip. La collaborazione vedrebbe SK Hynix testare la tecnicia 2.5D EMIB di Intel per l'inte...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Transcend: l'AI spinge un superciclo per la memoria

Transcend, attore chiave nel settore della memoria, ha evidenziato l'emergere di un "superciclo" guidato dalla crescente domanda di intelligenza artificiale. Questa tendenza indica un periodo prolungato di forte crescita per il mercato della memoria,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Delta Electronics: crescita sostenuta tra AI e raffreddamento a liquido

Delta Electronics registra un periodo di forte crescita, trainata dalla crescente domanda di soluzioni per l'intelligenza artificiale e dall'espansione del mercato del raffreddamento a liquido. Questi trend riflettono l'evoluzione delle infrastruttur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

L'esplosione della spesa per i data center AI e l'impatto sul raffreddamento

L'incremento degli investimenti nei data center dedicati all'intelligenza artificiale sta generando una domanda senza precedenti per soluzioni di raffreddamento avanzate. Questo fenomeno evidenzia le sfide infrastrutturali legate al deployment di Lar...

#Hardware #LLM On-Premise #DevOps
2026-05-11 The Next Web

SoftBank avvia la produzione di batterie su larga scala per data center AI

SoftBank, tramite la sua sussidiaria di servizi mobili, si prepara a produrre batterie su larga scala in un ex stabilimento Sharp a Sakai, Osaka. L'iniziativa mira a supportare i data center dedicati all'intelligenza artificiale, con un obiettivo di ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

AMD e Samsung: la mossa sui chip a 2nm scuote il dominio AI di TSMC

AMD ha deciso di affidare a Samsung parte della produzione dei suoi chip a 2 nanometri, una mossa che potrebbe avere significative ripercussioni sul mercato dei semiconduttori per l'intelligenza artificiale. Questa scelta strategica mette in discussi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Qisda: la ripresa economica trainata da AI e semiconduttori fino al 2026

Qisda prevede una ripresa significativa e un rimbalzo dei profitti fino al 2026, spinti dalla crescente domanda nei settori dell'intelligenza artificiale e dei semiconduttori. Questa prospettiva evidenzia la centralità dell'hardware e del silicio per...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

La corsa alla memoria per l'AI: Samsung e le sfide dell'inference on-premise

L'esplosione dei carichi di lavoro per l'inference di intelligenza artificiale sta alimentando una "corsa alla memoria" tra i principali produttori. Samsung è in prima linea in questa competizione, sviluppando soluzioni che rispondono alla crescente ...

#Hardware #LLM On-Premise #DevOps
2026-05-11 DigiTimes

Lite-On: Ricavi in crescita del 25% ad aprile, trainati da domanda AI e BBU

Lite-On ha registrato un aumento del 25% nei ricavi di aprile rispetto all'anno precedente. Questa crescita è attribuita principalmente alla forte domanda di soluzioni per l'alimentazione di infrastrutture AI e di Battery Backup Units (BBU). Il dato ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

L'esplosione dell'AI: Taiwan cerca nuove fonti per i materiali PCB

La crescente domanda di soluzioni di Intelligenza Artificiale sta generando un'impennata nel mercato globale, mettendo sotto pressione la filiera di produzione dei componenti hardware essenziali. Taiwan, attore chiave nella manifattura tecnicica, sta...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-10 Tom's Hardware

GPU AI Nvidia Tesla V100: un hack da 200 dollari per l'inference on-premise

Un ingegnoso progetto ha trasformato una GPU Nvidia Tesla V100 SMX, basata sul chip GV100, in una scheda PCIe da server con un costo di circa 200 dollari. Questa soluzione modificata, dotata di PCB personalizzato e raffreddamento stampato in 3D, dimo...

#Hardware #LLM On-Premise #DevOps
2026-05-10 DigiTimes

La domanda di AI satura in anticipo lo stabilimento Vanguard di Singapore

La crescente richiesta di soluzioni di intelligenza artificiale ha portato lo stabilimento di produzione di Vanguard a Singapore a raggiungere la piena capacità operativa con largo anticipo rispetto alle previsioni. Questo fenomeno evidenzia la press...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-09 TechCrunch AI

Nvidia: 40 miliardi di dollari in investimenti AI nel 2024

Nvidia ha già destinato 40 miliardi di dollari a investimenti azionari nel settore dell'intelligenza artificiale quest'anno, consolidando la sua posizione di attore chiave nell'ecosistema AI. Questo impegno finanziario evidenzia la crescente importan...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic