Topic / Trend Rising

Chip AI, Hardware e Dinamiche della Supply Chain

Questa tendenza copre il mercato in forte espansione dell'hardware specifico per l'IA, inclusi chip, memoria e soluzioni di packaging avanzate, trainato da investimenti massicci e ricavi record. Evidenzia anche le complesse influenze geopolitiche e le pressioni sulla supply chain che influenzano la produzione e la distribuzione di questi componenti critici.

Detected: 2026-04-14 · Updated: 2026-04-14

Articoli Correlati

2026-04-14 DigiTimes

Cina: prototipo GPU AI a 2nm, incertezza sulla produzione

La Cina ha annunciato lo sviluppo di un prototipo di GPU per intelligenza artificiale basato su un processo produttivo a 2 nanometri. Sebbene il raggiungimento di questa soglia tecnicica rappresenti un traguardo significativo, lo stato della produzio...

#Hardware #LLM On-Premise #DevOps
2026-04-14 DigiTimes

Samsung Electro-Mechanics espande il packaging AI in Vietnam

Samsung Electro-Mechanics starebbe pianificando un'espansione significativa della sua linea di produzione di substrati con MLCC integrati in Vietnam. Questa mossa mira a rafforzare le capacità di packaging per i chip AI, un componente cruciale per l'...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 DigiTimes

JCET e l'evoluzione del packaging AI: CPO e substrati in vetro al centro

JCET sta spingendo l'innovazione nel packaging avanzato per l'intelligenza artificiale, concentrandosi su tecnicie come il Co-Packaged Optics (CPO) e i substrati in vetro. Questi sviluppi mirano a soddisfare la crescente domanda di soluzioni di packa...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 DigiTimes

Ghost Robotics punta su Taiwan per ottimizzare costi e catena di fornitura

Ghost Robotics, azienda specializzata in robotica avanzata, sta orientando la propria strategia produttiva verso Taiwan. L'obiettivo è duplice: ridurre i costi operativi e diminuire la dipendenza dalla catena di fornitura cinese. Questa mossa riflett...

#Hardware #LLM On-Premise #DevOps
2026-04-14 DigiTimes

Crescita dei ricavi ODM/EMS nel 2026: la spinta della domanda di server AI

I ricavi delle aziende Original Design Manufacturer (ODM) ed Electronics Manufacturing Services (EMS) hanno registrato un'impennata nel marzo 2026, trainati dalla crescente domanda di server dedicati all'intelligenza artificiale. Questo trend evidenz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

Yaskawa Electric: la domanda di robot AI e chip spinge i profitti

Yaskawa Electric, leader nell'automazione industriale, ha registrato un aumento dei profitti grazie alla crescente domanda di robot basati su intelligenza artificiale e semiconduttori. Questo trend evidenzia l'impatto pervasivo dell'AI sull'industria...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

Phison punta a 1,4 miliardi di dollari per affrontare la carenza di NAND

Phison, attore chiave nel mercato dei controller NAND, mira a raccogliere 1,4 miliardi di dollari. L'obiettivo è mitigare una prevista grave carenza di memorie NAND, attesa per il quarto trimestre del 2026. Questa mossa strategica sottolinea le cresc...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 The Register AI

Oracle: investimenti AI e tagli al personale minacciano supporto e prezzi

Gli ingenti investimenti di Oracle nell'infrastruttura AI e i potenziali tagli al personale stanno sollevando preoccupazioni tra i clienti. Gli esperti avvertono che queste mosse potrebbero tradursi in un deterioramento del supporto tecnico e in cond...

#Hardware #LLM On-Premise #DevOps
2026-04-13 DigiTimes

Giappone investe nell'ecosistema di chip AI con Rapidus

Il Giappone sta finanziando la creazione di un ecosistema nazionale per i chip dedicati all'intelligenza artificiale, con Rapidus al centro di questa iniziativa strategica. Il primo impianto dell'azienda, IIM-1, è in costruzione a Chitose, Hokkaido, ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

La spinta di Taiwan nella robotica: da fornitore a costruttore di sistemi AI

Taiwan sta accelerando la sua transizione strategica nel settore della robotica, puntando a diventare un costruttore di sistemi completi anziché un mero fornitore di componenti. Questa mossa riflette un'ambizione di scalare la catena del valore tecni...

#Hardware #LLM On-Premise #DevOps
2026-04-13 DigiTimes

Taiwan lancia un centro nazionale per la robotica AI e le startup locali

Taiwan ha inaugurato un centro nazionale dedicato alla robotica e all'intelligenza artificiale. L'iniziativa mira a coltivare startup locali, rafforzando l'ecosistema tecnicico del paese e promuovendo lo sviluppo di soluzioni AI "homegrown". Questo a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

Taiwan: Esportazioni record a 80 miliardi, spinta dalla domanda AI

Le esportazioni mensili di Taiwan hanno superato per la prima volta gli 80 miliardi di dollari USA, un traguardo significativo trainato dalla crescente domanda globale di tecnicie legate all'intelligenza artificiale. Questo dato evidenzia la centrali...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

MediaTek: ricavi record grazie alla domanda di chip AI e ordini TPU

MediaTek ha registrato un fatturato record, spinto dalla crescente domanda di chip dedicati all'intelligenza artificiale. Gli ordini di Tensor Processing Units (TPU) hanno giocato un ruolo cruciale in questa crescita, evidenziando la corsa globale al...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

Hygon rafforza la strategia CPU-GPU per il calcolo AI

Hygon, produttore cinese di chip, sta espandendo la sua strategia nel settore del calcolo AI, puntando sull'integrazione di CPU e GPU. Questa mossa sottolinea la crescente importanza di soluzioni hardware ottimizzate per carichi di lavoro di intellig...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 DigiTimes

Carenze di componenti e strategie SK Hynix: implicazioni per il mercato AI

Il mercato tecnicico affronta nuove sfide con la diffusione delle carenze di MLCC, componenti cruciali per l'elettronica. Parallelamente, SK Hynix, un attore chiave nel settore delle memorie, starebbe intavolando discussioni strategiche con giganti c...

#Hardware #LLM On-Premise #DevOps
2026-04-13 DigiTimes

Flessibilità produttiva a Taiwan: un riflesso per la supply chain AI

Le strategie adottate dai produttori di pannelli a Taiwan, come il mantenimento di linee di produzione specifiche e l'adozione di una capacità flessibile, offrono uno spunto di riflessione sulla resilienza della supply chain tecnicica. Queste dinamic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 DigiTimes

Intel e SambaNova rafforzano la collaborazione per l'infrastruttura AI

Intel e SambaNova hanno annunciato un'intensificazione della loro alleanza, mirando a soddisfare la crescente domanda di infrastrutture dedicate all'intelligenza artificiale. Questa mossa strategica riflette l'esigenza del mercato di soluzioni robust...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 Tom's Hardware

Linux 7.0 introduce nuovi tasti dedicati all'IA: un'espansione oltre Copilot

Linux 7.0 integra il supporto per tre nuovi tasti specifici per l'intelligenza artificiale sulle tastiere, segnando un'evoluzione rispetto al singolo tasto Copilot di Windows 11. Google ha sviluppato sia la specifica HID sia la patch del kernel, indi...

#Hardware #LLM On-Premise #DevOps
2026-04-11 DigiTimes

Samsung rafforza la posizione nella filiera degli LPU Groq 3 di Nvidia

Samsung Electro-Mechanics avrebbe intensificato il proprio coinvolgimento nella catena di fornitura per gli LPU Groq 3, processori cruciali per l'inference di Large Language Models. L'azienda coreana si concentra sulla produzione di substrati FC-BGA,...

#Hardware #LLM On-Premise #DevOps
2026-04-10 DigiTimes

Pressioni su costi e supply chain: impatto sull'infrastruttura AI on-premise

L'industria tecnicica affronta una fase di cautela, guidata da persistenti colli di bottiglia nella supply chain e crescenti pressioni sui costi. Questi fattori influenzano direttamente le strategie di deployment per i Large Language Models, spingend...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-10 DigiTimes

Asustek: Ricavi record a marzo e nel 1Q26 trainati dai server AI

Asustek ha registrato ricavi record a marzo e nel primo trimestre fiscale 2026, spinta da una robusta domanda di server dedicati all'intelligenza artificiale. Questo risultato evidenzia la crescente necessità di infrastrutture hardware performanti pe...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-10 DigiTimes

L'onda di investimenti degli OSAT cinesi nel packaging avanzato per l'AI

Le aziende cinesi di assemblaggio e test di semiconduttori (OSAT) stanno intensificando gli investimenti nel packaging avanzato. Questa mossa strategica è una risposta diretta alla crescente domanda di hardware per l'intelligenza artificiale, evidenz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-10 DigiTimes

CoWoS: la capacità di packaging avanzato di TSMC limita l'espansione AI

La tecnicia di packaging avanzato CoWoS di TSMC si sta affermando come un fattore critico per l'espansione dell'intelligenza artificiale. Nonostante una crescita impressionante dell'80% nel Compound Annual Growth Rate (CAGR) per il packaging avanzato...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-10 DigiTimes

Intel e Google: un'alleanza per l'infrastruttura AI basata su CPU

Intel e Google hanno stretto un'alleanza strategica per ridefinire l'infrastruttura AI, spostando l'attenzione verso le CPU. Questa mossa suggerisce un potenziale cambiamento nel panorama dei deployment AI, offrendo nuove prospettive per le aziende c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-10 DigiTimes

Meta e CoreWeave: l'accelerazione della spesa in infrastrutture AI

Meta ha rafforzato la sua partnership con CoreWeave, un segnale della crescente domanda di infrastrutture specializzate per l'intelligenza artificiale. Questa mossa evidenzia l'accelerazione della spesa nel settore, spinta dalle elevate esigenze di c...

#Hardware #LLM On-Premise #DevOps
2026-04-10 DigiTimes

Anthropic valuta la progettazione di chip proprietari per l'AI

Anthropic, azienda leader nel campo dell'intelligenza artificiale, starebbe esplorando la possibilità di progettare chip proprietari. Questa mossa strategica si inserisce in un contesto di rapida crescita dei ricavi e di un'evoluzione costante dello ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 Tom's Hardware

Intel: capitalizzazione record in 25 anni, spinta da CPU, AI e foundry

Intel ha raggiunto la sua più alta capitalizzazione di mercato in 25 anni, superando i 300 miliardi di dollari. Questo traguardo è attribuito ai progressi nei settori CPU, intelligenza artificiale (AI) e foundry, con un riferimento a un legame con Te...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 TechCrunch AI

Google e Intel: una partnership strategica per chip AI personalizzati

Google e Intel hanno annunciato un'espansione della loro collaborazione, focalizzata sullo sviluppo congiunto di chip personalizzati per l'infrastruttura AI. Questa mossa strategica risponde alla crescente domanda di CPU e alla persistente carenza gl...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 LocalLLaMA

Routing LLM su GPU consumer: i core Ray Tracing accelerano MoE di 218 volte

Una ricerca innovativa ha dimostrato come i core Ray Tracing (RT Cores) delle GPU consumer, solitamente inattivi durante l'inference LLM, possano essere riutilizzati per accelerare il routing degli esperti nei modelli Mixture-of-Experts (MoE). Questo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 Tom's Hardware

Intel EMIB-T: il debutto in produzione per gli acceleratori AI

Intel si prepara a introdurre la tecnicia di packaging EMIB-T nei suoi stabilimenti quest'anno. Questa mossa arriva in un contesto di capacità limitata per le soluzioni CoWoS di TSMC e mira a supportare la progettazione di acceleratori AI avanzati. L...

#Hardware #LLM On-Premise #DevOps
2026-04-09 DigiTimes

La domanda di server AI e notebook spinge la ripresa degli ODM a marzo

I produttori di design originali (ODM) hanno registrato un'impennata della domanda a marzo, superando il calo stagionale. La crescita è stata trainata in particolare dalla richiesta di server AI e notebook, segnalando un rafforzamento degli investime...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 DigiTimes

L'impennata della domanda di componenti per l'AI spinge Hon Precision

Hon Precision, fornitore chiave di componenti per l'infrastruttura AI, registra un'accelerazione significativa della domanda. Questo trend evidenzia la crescente necessità di hardware robusto per supportare i carichi di lavoro di Large Language Model...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 ServeTheHome

NVIDIA Vera Rubin NVL72: il rack completo per l'AI on-premise al GTC 2026

Al GTC 2026 di NVIDIA, è stato avvistato il rack NVIDIA Vera Rubin NVL72 presso lo stand di Pegatron. Questa soluzione integrata, che include CPU, GPU, networking e storage, sottolinea la crescente enfasi sui sistemi completi per carichi di lavoro AI...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 DigiTimes

Corning entra nei componenti per server AI: impatti su energia e supply chain

Corning si sta muovendo nel settore dei componenti per server AI, una transizione che potrebbe ridefinire il consumo energetico dei data center e le dinamiche della supply chain. Questa mossa è rilevante per le aziende che valutano deployment on-prem...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-09 DigiTimes

L'ascesa della Cina nella memoria per AI: impatto sulla supply chain globale

La crescente capacità produttiva cinese di memoria, guidata da YMTC e CXMT, sta ridefinendo gli equilibri della supply chain globale nel settore dell'intelligenza artificiale. Questo sviluppo ha implicazioni significative per la disponibilità e il co...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 Tom's Hardware

Intel e SambaNova: una piattaforma eterogenea per l'Inference AI

Intel e SambaNova Systems hanno annunciato una collaborazione strategica per sviluppare una piattaforma di Inference AI eterogenea. L'iniziativa mira a ottimizzare i carichi di lavoro di intelligenza artificiale, distribuendoli su hardware diversi pe...

#Hardware #LLM On-Premise #DevOps
2026-04-08 Wired AI

La partnership sui chip di Elon Musk e Intel: tra ambizione e incertezze

Il ruolo di Intel nell'ambiziosa iniziativa di Elon Musk per la produzione di chip rimane avvolto nel mistero. La collaborazione solleva interrogativi cruciali sulla sua reale portata e sulla fattibilità tecnica, con implicazioni significative per il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 Phoronix

Intel Arc Pro B70: i primi benchmark per LLM e AI su Linux

Intel ha presentato la scheda grafica Arc Pro B70, dotata di 32GB di VRAM GDDR6 e 32 Xe core. Questa GPU di fascia alta, parte della serie Battlemage, mostra un potenziale significativo per carichi di lavoro LLM/AI e compute generico, specialmente in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 The Next Web

Intel e Terafab di Musk: una partnership da 25 miliardi per il futuro dell'AI

Intel si unisce a Terafab, la joint venture da 25 miliardi di dollari di Elon Musk (Tesla, SpaceX, xAI), come partner principale per la produzione di chip. L'obiettivo è generare un terawatt di potenza di calcolo AI all'anno, segnando un'importante a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 DigiTimes

Cina: le aziende AI e cloud accelerano l'adozione di chip nazionali

Le aziende cinesi attive nei settori dell'intelligenza artificiale e del cloud stanno intensificando l'impiego di chip prodotti a livello nazionale. Questa tendenza riflette una crescente enfasi sull'autosufficienza tecnicica e sulla sovranità dei da...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 DigiTimes

Uber adotta chip AWS personalizzati per scalare l'AI e ridurre i costi

Uber ha annunciato l'adozione di chip personalizzati di AWS per le proprie operazioni di intelligenza artificiale. Questa mossa strategica mira a migliorare la scalabilità dei carichi di lavoro AI e a ottimizzare i costi computazionali, evidenziando ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-08 DigiTimes

Broadcom, Google e Anthropic: un'alleanza strategica nel mirino di MediaTek

Un'alleanza strategica tra Broadcom, Google e Anthropic si trova ad affrontare la crescente competizione di MediaTek. Questo scenario evidenzia le dinamiche del mercato dell'intelligenza artificiale, dove la collaborazione tra giganti della tecnicia ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-07 Tom's Hardware

Intel si unisce al progetto TeraFab di Elon Musk per l'innovazione del silicio

Intel ha annunciato la sua partecipazione al progetto TeraFab, un'iniziativa che vede coinvolte anche SpaceX, xAI e Tesla. L'obiettivo dichiarato è ridefinire le tecnicie di fabbricazione del silicio, un passo cruciale per lo sviluppo di hardware ava...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-07 Tom's Hardware

Broadcom fornirà ad Anthropic 3,5 GW di capacità TPU Google dal 2027

Broadcom ha siglato un accordo per fornire ad Anthropic una capacità di calcolo basata su Google TPU pari a 3,5 gigawatt, con inizio delle consegne previsto dal 2027. Questa mossa strategica si allinea con la rapida crescita di Anthropic, che ha supe...

#Hardware #LLM On-Premise #DevOps
2026-04-07 DigiTimes

La Cina cerca alternative a CUDA di Nvidia per i chip AI

La Cina sta attivamente esplorando soluzioni per ridurre la propria dipendenza dall'architettura CUDA di Nvidia nel settore dei chip per l'intelligenza artificiale. Questa iniziativa, supportata da figure come Wei Shaojun della China Semiconductor In...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic