Topic / Trend Rising

Boom dell'Framework e della Supply Chain AI

La domanda inarrestabile di AI sta guidando investimenti massicci in data center, chip avanzati e memoria specializzata, spingendo le catene di fornitura globali al limite. Fattori geopolitici e preoccupazioni energetiche influenzano sempre più le strategie di produzione e deployment.

Detected: 2026-05-11 · Updated: 2026-05-11

Articoli Correlati

2026-05-11 DigiTimes

Il sogno indiano dei chip: Lam Research guarda oltre le fabbriche

Lam Research, tramite il suo Managing Director Rangesh Raghavan, sottolinea l'importanza di un approccio olistico per il "sogno indiano dei chip", che vada oltre la semplice costruzione di fabbriche. L'azienda evidenzia la necessità di sviluppare un ...

#Hardware #LLM On-Premise #DevOps
2026-05-11 The Next Web

SoftBank avvia la produzione di batterie su larga scala per data center AI

SoftBank, tramite la sua sussidiaria di servizi mobili, si prepara a produrre batterie su larga scala in un ex stabilimento Sharp a Sakai, Osaka. L'iniziativa mira a supportare i data center dedicati all'intelligenza artificiale, con un obiettivo di ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

AMD e Samsung: la mossa sui chip a 2nm scuote il dominio AI di TSMC

AMD ha deciso di affidare a Samsung parte della produzione dei suoi chip a 2 nanometri, una mossa che potrebbe avere significative ripercussioni sul mercato dei semiconduttori per l'intelligenza artificiale. Questa scelta strategica mette in discussi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Qisda: la ripresa economica trainata da AI e semiconduttori fino al 2026

Qisda prevede una ripresa significativa e un rimbalzo dei profitti fino al 2026, spinti dalla crescente domanda nei settori dell'intelligenza artificiale e dei semiconduttori. Questa prospettiva evidenzia la centralità dell'hardware e del silicio per...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

La corsa alla memoria per l'AI: Samsung e le sfide dell'inference on-premise

L'esplosione dei carichi di lavoro per l'inference di intelligenza artificiale sta alimentando una "corsa alla memoria" tra i principali produttori. Samsung è in prima linea in questa competizione, sviluppando soluzioni che rispondono alla crescente ...

#Hardware #LLM On-Premise #DevOps
2026-05-11 DigiTimes

Crisi del 2D NAND e blocco MediaTek: impatto sulla supply chain tech

Il mercato dei semiconduttori è scosso da due eventi significativi: il blocco delle negoziazioni di MediaTek a Taiwan e una crescente carenza di memorie 2D NAND. Questi sviluppi evidenziano le fragilità della catena di fornitura globale, con potenzia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Lite-On: Ricavi in crescita del 25% ad aprile, trainati da domanda AI e BBU

Lite-On ha registrato un aumento del 25% nei ricavi di aprile rispetto all'anno precedente. Questa crescita è attribuita principalmente alla forte domanda di soluzioni per l'alimentazione di infrastrutture AI e di Battery Backup Units (BBU). Il dato ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

L'esplosione dell'AI: Taiwan cerca nuove fonti per i materiali PCB

La crescente domanda di soluzioni di Intelligenza Artificiale sta generando un'impennata nel mercato globale, mettendo sotto pressione la filiera di produzione dei componenti hardware essenziali. Taiwan, attore chiave nella manifattura tecnicica, sta...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

Giga Computing e la spinta della Corea del Sud verso l'AI sovrana

Giga Computing, una divisione di Gigabyte, sta orientando le proprie strategie verso il mercato sudcoreano, in particolare per supportare la crescente domanda di soluzioni di Intelligenza Artificiale sovrana. Questo trend riflette l'esigenza di contr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-11 DigiTimes

La carenza di memoria per l'AI: un vincolo strutturale fino al 2028

Il mercato dell'intelligenza artificiale si confronta con una persistente carenza di memoria, in particolare VRAM per le GPU, essenziale per i Large Language Models. Secondo le analisi, questa 'stretta' non dovrebbe allentarsi prima del 2028, ponendo...

#Hardware #LLM On-Premise #DevOps
2026-05-10 Tom's Hardware

GPU AI Nvidia Tesla V100: un hack da 200 dollari per l'inference on-premise

Un ingegnoso progetto ha trasformato una GPU Nvidia Tesla V100 SMX, basata sul chip GV100, in una scheda PCIe da server con un costo di circa 200 dollari. Questa soluzione modificata, dotata di PCB personalizzato e raffreddamento stampato in 3D, dimo...

#Hardware #LLM On-Premise #DevOps
2026-05-10 DigiTimes

La domanda di AI satura in anticipo lo stabilimento Vanguard di Singapore

La crescente richiesta di soluzioni di intelligenza artificiale ha portato lo stabilimento di produzione di Vanguard a Singapore a raggiungere la piena capacità operativa con largo anticipo rispetto alle previsioni. Questo fenomeno evidenzia la press...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-09 TechCrunch AI

Nvidia: 40 miliardi di dollari in investimenti AI nel 2024

Nvidia ha già destinato 40 miliardi di dollari a investimenti azionari nel settore dell'intelligenza artificiale quest'anno, consolidando la sua posizione di attore chiave nell'ecosistema AI. Questo impegno finanziario evidenzia la crescente importan...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-09 DigiTimes

La crescente carenza di chip di potenza minaccia l'espansione dei server AI

La domanda di server per l'intelligenza artificiale sta esacerbando la carenza di chip di potenza, un componente critico per l'infrastruttura di calcolo. Questa situazione, aggravata dalla competizione nello sviluppo di tecnicie come il nitruro di ga...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-09 DigiTimes

Semiconduttori e AI: la domanda spinge le supply chain al limite

Il mercato globale dei semiconduttori sta affrontando carenze significative, spinte dalla crescente domanda di intelligenza artificiale. Questa situazione mette sotto forte stress le catene di approvvigionamento, con implicazioni dirette per le azien...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 Tom's Hardware

Il data center AI Stargate in Texas e l'infrastruttura energetica on-site

Il data center AI Stargate ad Abilene, Texas, sta sviluppando un'infrastruttura energetica on-site. Durante un tour per la stampa, sono state mostrate le turbine a gas di GE Vernova, parte di un impianto a gas naturale in costruzione. Questa scelta e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 DigiTimes

Nvidia e Corning: un'alleanza strategica per l'infrastruttura AI negli USA

Nvidia e Corning hanno siglato una partnership per potenziare l'infrastruttura e le catene di approvvigionamento dell'intelligenza artificiale negli Stati Uniti. L'iniziativa prevede l'espansione della produzione di fibra ottica, elemento cruciale pe...

#Hardware #LLM On-Premise #DevOps
2026-05-08 DigiTimes

La scommessa di Nvidia sul raffreddamento di nuova generazione per l'AI

Nvidia sta investendo in soluzioni di raffreddamento avanzate per l'intelligenza artificiale, un passo cruciale per gestire il calore generato dai potenti acceleratori GPU. Questa strategia è fondamentale per sostenere le crescenti esigenze di calcol...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 DigiTimes

Coherent: ordini per ottiche 1.6T e semiconduttori fino al 2030

Coherent Corp. ha annunciato che il suo portafoglio ordini si estende fino al 2030, con una forte domanda per ottiche 1.6T e capacità produttiva di semiconduttori InP da 6 pollici. Questo indica una crescita sostenuta nelle infrastrutture di rete e d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 DigiTimes

Big Tech finanzia SK Hynix: la corsa alla memoria AI si intensifica

Le maggiori aziende tecniciche starebbero offrendo finanziamenti a SK Hynix per la costruzione di nuove fabbriche e l'acquisto di strumenti EUV. Questa mossa evidenzia l'intensificarsi della competizione nel settore delle memorie dedicate all'intelli...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 DigiTimes

Investimenti taiwanesi negli USA: 50 miliardi per l'ecosistema tech

Gli investimenti delle aziende taiwanesi negli Stati Uniti hanno superato le previsioni, con il governo di Taipei che ha stanziato un finanziamento di 50 miliardi di dollari. Questa mossa strategica rafforza l'interdipendenza tecnicica tra le due naz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 DigiTimes

Shenmao e il boom dell'infrastruttura AI: crescita record dei ricavi

Shenmao registra una crescita record dei ricavi, spinta dalla crescente domanda di infrastrutture per l'intelligenza artificiale. Questo trend riflette l'espansione del mercato, dove le aziende cercano soluzioni robuste per il deployment di LLM, bila...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-08 LocalLLaMA

M3 da 512GB introvabile: sfide per gli LLM on-premise e l'inference locale

La scarsità di hardware con elevata memoria unificata, come i chip M3 di Apple da 512GB o 256GB, sta creando difficoltà per chi intende eseguire Large Language Models (LLM) in locale. Questa situazione spinge sviluppatori e aziende a riconsiderare le...

#Hardware #LLM On-Premise #DevOps
2026-05-08 DigiTimes

Chenbro Micom: forte domanda di server AI prevista per il 2026

Chenbro Micom, un attore chiave nel settore server, anticipa un'impennata nella domanda di server nella seconda metà del 2026. Questa previsione è legata alla continua espansione delle infrastrutture AI, suggerendo un trend di crescita sostenuta per ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 Tom's Hardware

AMD Instinct MI350P: 144GB HBM3E e +40% in FP16/FP8 per l'AI PCIe

AMD ha annunciato la scheda acceleratrice AI Instinct MI350P in formato PCIe. Dotata di 144GB di memoria HBM3E, questa nuova soluzione promette un incremento prestazionale teorico di circa il 40% nelle operazioni FP16 e FP8 rispetto al concorrente Nv...

#Hardware #LLM On-Premise #DevOps
2026-05-07 Tom's Hardware

Crollo delle vendite di schede madri: il mercato AI devia la produzione di chip

Il mercato delle schede madri per PC enthusiast sta subendo un calo significativo, con vendite previste in diminuzione di oltre il 25%. La causa principale è la decisione dei produttori di chip di dirottare risorse e capacità produttiva verso i semic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 Phoronix

AMD Instinct MI350P: La scheda PCIe per l'AI e il calcolo ad alte prestazioni

AMD ha presentato la Instinct MI350P, una scheda PCIe progettata per estendere le capacità di calcolo della serie MI350 ai server esistenti con slot PCIe 5.0 e raffreddamento ad aria. Questa soluzione si propone come alternativa ai moduli OAM, offren...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 DigiTimes

WinWay: Ricavi record ad aprile spinti dalla domanda di AI e HPC

WinWay ha registrato il suo secondo miglior risultato di sempre in termini di ricavi ad aprile, un incremento significativo attribuito alla forte domanda nei settori dell'intelligenza artificiale (AI) e del calcolo ad alte prestazioni (HPC). Questo d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 DigiTimes

Sostenibilità e infrastrutture: l'impatto energetico nei deployment AI

L'annuncio di Apple di espandere gli investimenti in energia pulita e acqua per la sua supply chain in India evidenzia una sfida cruciale per l'intero settore tecnicico. Per i CTO e gli architetti di infrastrutture, la gestione dell'energia e l'impro...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 The Next Web

OpsMill: 14 milioni per dati infrastrutturali affidabili per l'AI

OpsMill, azienda parigina specializzata nella gestione dei dati infrastrutturali, ha chiuso un round di finanziamento Series A da 14 milioni di dollari. L'investimento, guidato da IRIS, mira a potenziare la piattaforma Infrahub, progettata per garant...

#Hardware #LLM On-Premise #DevOps
2026-05-07 DigiTimes

Alphabet e l'onda di finanziamenti AI: un segnale per l'infrastruttura tech

L'imponente raccolta di debito di Alphabet evidenzia il boom di investimenti nell'intelligenza artificiale. Questo trend spinge le aziende a riconsiderare le strategie di deployment, bilanciando cloud e soluzioni self-hosted per gestire la crescente ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 DigiTimes

AI e infrastrutture: la Corea del Sud di fronte alla sfida delle competenze

La Corea del Sud si trova a un bivio nell'era dell'intelligenza artificiale, con i settori chiave dei chip e delle telecomunicazioni che affrontano una profonda ridefinizione del mercato del lavoro. Questa trasformazione evidenzia la crescente necess...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 DigiTimes

Normative FCC e boom del testing a Taiwan: il successo di Sporton

Sporton ha registrato il suo profitto più alto degli ultimi sei trimestri, spinto da un'impennata della domanda di servizi di testing a Taiwan. Questo incremento è una diretta conseguenza delle modifiche alle normative introdotte dalla Federal Commun...

#Hardware #LLM On-Premise #DevOps
2026-05-07 DigiTimes

La domanda di AI spinge i server: MetaAge registra un +27% nei ricavi

MetaAge ha annunciato una crescita dei ricavi del 27%, attribuendo il significativo aumento alla crescente domanda di soluzioni AI, che ha stimolato le consegne di server. Questo dato riflette una tendenza più ampia nel mercato tecnicico, dove l'inte...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-07 DigiTimes

La filiera tech tra costi crescenti e domanda AI: un equilibrio precario

La crescente domanda di soluzioni basate sull'intelligenza artificiale sta mettendo sotto pressione la filiera tecnicica globale, innalzando i costi di produzione e distribuzione. Le aziende si trovano ad affrontare un delicato equilibrio nella gesti...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 TechCrunch AI

xAI tra modelli e infrastrutture: la strategia dei data center

Recenti speculazioni suggeriscono che il core business di xAI potrebbe evolvere, spostando l'attenzione dallo sviluppo di modelli di intelligenza artificiale alla costruzione di data center. Questa potenziale transizione evidenzia la crescente import...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 The Next Web

Core42 di G42: un ex ufficio di Minneapolis diventa data center AI da 20 MW

Core42, sussidiaria di G42, ha trasformato un ex edificio per uffici a Minneapolis in un data center AI da 20 megawatt. Questa mossa strategica, lontana dai tradizionali hyperscaler della Silicon Valley, evidenzia l'impegno verso infrastrutture dedic...

#Hardware #LLM On-Premise #DevOps
2026-05-06 TechCrunch AI

Samsung supera il trilione di dollari: la spinta della domanda di chip AI

Samsung ha raggiunto una valutazione di oltre mille miliardi di dollari, diventando la seconda azienda asiatica a tagliare questo traguardo dopo TSMC. La crescita è stata alimentata dall'impennata della domanda di chip per l'intelligenza artificiale,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 Tom's Hardware

Apple riduce la memoria del Mac Studio a 96GB: impatto sull'AI locale

Apple ha silenziosamente rimosso la configurazione da 128GB di memoria unificata dal Mac Studio, portando la capacità massima a 96GB. Questa decisione, che riguarda anche il modello Early 2025, è attribuita a vincoli di fornitura e alla crescente dom...

#Hardware #LLM On-Premise #DevOps
2026-05-06 DigiTimes

L'impennata del networking AI spinge Lumentum a una crescita record

Lumentum registra una crescita eccezionale, trainata dalla crescente domanda di infrastrutture di rete per l'intelligenza artificiale. Questo trend evidenzia l'importanza critica del networking ad alte prestazioni per i carichi di lavoro LLM, special...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

L'AI rivoluziona il testing dei semiconduttori: la visione del CEO di AEM

Il CEO di AEM evidenzia come l'intelligenza artificiale stia trasformando radicalmente il settore del testing dei semiconduttori. Questa evoluzione impone nuove sfide e opportunità per l'industria, spingendo verso l'adozione di soluzioni più efficien...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Flex: prospettive 2027 superate e spin-off dell'unità data center AI

Flex ha annunciato prospettive finanziarie per il 2027 superiori alle attese e il piano di scorporare la sua unità dedicata ai data center per l'intelligenza artificiale. Questa mossa strategica evidenzia la crescente importanza dell'infrastruttura A...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Airoha di MediaTek punta alla crescita ottica per il networking AI

Airoha, un'unità di MediaTek, sta orientando i suoi sforzi verso il settore del networking per l'intelligenza artificiale. L'azienda mira a una "crescita ottica tripla", sottolineando l'importanza delle interconnessioni ad alta velocità per supportar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

AMD e l'IA: il ritorno dei processori al centro della scena

L'intelligenza artificiale sta ridefinendo il ruolo dei processori (CPU) nell'infrastruttura IT. Le recenti dichiarazioni di AMD, tramite la CEO Lisa Su, evidenziano come l'IA stia riportando le CPU al centro dell'attenzione, influenzando le strategi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Supermicro: l'andamento dei margini e il ruolo dei grandi clienti

Supermicro ha registrato un recupero dei propri margini operativi, un andamento influenzato dal ritiro di un cliente significativo. Questo episodio sottolinea la sensibilità del mercato dei server ad alte prestazioni e l'impatto delle decisioni dei g...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Acer E-Enabling: Ricavi record nel Q1 spinti dai progetti AI cloud

Acer E-Enabling ha registrato ricavi record nel primo trimestre, un risultato attribuito alla crescente domanda di progetti di intelligenza artificiale basati su cloud. Questo trend evidenzia l'espansione del mercato AI e le dinamiche tra soluzioni c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Lumentum: la domanda di AI spinge risultati record e l'espansione nel settore

Lumentum, fornitore chiave di componenti ottici, registra una crescita esplosiva e risultati finanziari record, trainata dalla crescente domanda nel settore dell'intelligenza artificiale. Questo trend evidenzia l'importanza critica dell'infrastruttur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

AMD alza le previsioni: la domanda di AI spinge la crescita dei data center

AMD ha rivisto al rialzo le proprie previsioni finanziarie, citando una robusta domanda di soluzioni AI che alimenta l'espansione dei data center. Questo trend sottolinea la crescente necessità di hardware dedicato per carichi di lavoro di intelligen...

#Hardware #LLM On-Premise #DevOps
2026-05-05 TechCrunch AI

ASML: Il CEO Fouquet ribadisce la leadership nel mercato dei semiconduttori

Christophe Fouquet, CEO di ASML dal 2024, ha discusso la posizione dominante dell'azienda nel settore dei semiconduttori. L'intervista, avvenuta a Beverly Hills, ha evidenziato la fiducia di ASML nella propria leadership tecnicica, anche di fronte al...

#Hardware #LLM On-Premise #DevOps
2026-05-05 The Next Web

La Volatilità del Mercato dei Chip AI: Il Caso Intel e le Sfide On-Premise

Il percorso di Intel nel mercato dei chip AI, da una posizione di svantaggio nel 2025 a un massimo storico nel 2026, evidenzia la rapida evoluzione del settore. Questo contesto sottolinea l'importanza di strategie infrastrutturali robuste per i deplo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 Tom's Hardware

Huawei Ascend: la spinta locale che ridisegna il mercato cinese dei chip AI

Huawei si prepara a generare 12 miliardi di dollari di ricavi dai suoi chip AI Ascend, spinta dalla crescente domanda di modelli di intelligenza artificiale sviluppati localmente in Cina. Questa espansione mette sotto pressione le capacità produttive...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 Tom's Hardware

JSR e TSMC: investimento strategico a Taiwan per i fotoresist avanzati

JSR e TSMC collaboreranno alla costruzione di un nuovo impianto per fotoresist avanzati a Taiwan, con un investimento multimilionario. L'operazione, prevista per il 2028, mira a rafforzare la filiera produttiva dei semiconduttori, essenziale per la r...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 Tom's Hardware

Nvidia: Huang, priorità USA su GPU Blackwell e Rubin per l'AI

Il CEO di Nvidia, Jensen Huang, ha espresso una posizione chiara riguardo alla distribuzione delle future GPU Blackwell e Rubin per l'intelligenza artificiale. Huang ha affermato che gli Stati Uniti dovrebbero avere la priorità assoluta in termini di...

#Hardware #LLM On-Premise #DevOps
2026-05-05 The Next Web

Apple esplora Intel e Samsung per i chip M-series: fine del monopolio TSMC?

Apple ha avviato discussioni preliminari con Intel e Samsung per la produzione di alcuni dei suoi chip M-series. Questa mossa segna un potenziale cambiamento nella strategia di approvvigionamento di silicio dell'azienda, che per quasi un decennio si ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La Spinta di Google con le TPU Sfida il Dominio di Nvidia nel Neocloud AI

Google intensifica la sua offerta di Tensor Processing Units (TPU), mettendo sotto pressione la consolidata leadership di Nvidia nel mercato dell'infrastruttura AI basata su cloud. Questa competizione ridefinisce le dinamiche per le aziende che valut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

Ardentec avvia il testing di ASIC per AI a Longtan nel 3Q26

Ardentec, azienda specializzata nel testing di semiconduttori, ha annunciato l'avvio delle attività di testing per i suoi ASIC dedicati all'intelligenza artificiale presso lo stabilimento di Longtan, con inizio previsto nel terzo trimestre del 2026. ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La Corea del Sud punta sulla memoria per l'AI, sfidando il dominio Nvidia

Un recente rapporto di DIGITIMES indica che la Corea del Sud sta esplorando una strategia "memory-led" per l'intelligenza artificiale. Questa mossa suggerisce un potenziale approccio alternativo o competitivo rispetto all'attuale leadership di Nvidia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

AI e chip: gli Stati Uniti tornano in vetta agli scambi con Taiwan

L'accelerazione nello sviluppo dell'intelligenza artificiale e la crescente domanda di semiconduttori avanzati hanno spinto gli Stati Uniti a riconquistare la posizione di principale partner commerciale di Taiwan. Questo scenario evidenzia la central...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

MediaTek: la crescita degli ASIC mira al 60% di quota di mercato

MediaTek sta consolidando la sua posizione nel settore degli ASIC, con un'espansione che potrebbe portare l'azienda a raggiungere il 60% della quota di mercato nel segmento. Questo sviluppo riflette un'evoluzione strategica verso soluzioni a più alto...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

Memoria server DDR6: il futuro dell'AI on-premise prende forma

L'industria tecnicica sta accelerando lo sviluppo della memoria server DDR6, una mossa strategica per rispondere alle crescenti esigenze dei carichi di lavoro AI di prossima generazione. Questa evoluzione è cruciale per i deployment on-premise, dove ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La domanda di HPC per l'AI spinge CHPT a ricavi record ad aprile

CHPT ha registrato un fatturato record ad aprile, un risultato trainato dalla crescente domanda di High-Performance Computing (HPC) alimentata dai carichi di lavoro dell'intelligenza artificiale. Questo dato evidenzia l'impatto significativo dell'AI ...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

Onsemi punta sui data center AI e Treo per la ripresa di ricavi e margini

Onsemi, azienda leader nel settore dei semiconduttori, ha individuato nei data center dedicati all'intelligenza artificiale e nel suo segmento Treo i principali motori per la crescita futura. Questa strategia mira a rafforzare la posizione dell'azien...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

Onsemi e il mercato cinese: un barometro per il silicio AI on-premise

Nonostante il calo nel settore automobilistico passeggeri, Onsemi conferma la solidità del mercato cinese. Questa dinamica evidenzia l'interconnessione della supply chain dei semiconduttori, cruciale per la disponibilità e il TCO dell'hardware dedica...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

Crisi CoWoS e le incertezze su Intel: uno sguardo al mercato AI

La carenza di capacità produttiva CoWoS, essenziale per i chip AI avanzati, sta creando tensioni nel mercato. L'assunzione di Dr. Douglas Yu da parte di MediaTek e le crescenti domande sulla capacità di Intel di soddisfare la domanda evidenziano le s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 Tom's Hardware

Intel Arc Pro B70: 32GB di VRAM per workstation, performance raddoppiate

La nuova GPU Intel Arc Pro B70, dotata di 32GB di VRAM, mostra prestazioni significative nei test. Con una velocità media circa doppia rispetto alla Arc B580 e la capacità di superare la RTX 5060 Ti in alcuni scenari, si posiziona come un'opzione int...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic