Topic / Trend Rising

Intensificazione della Corsa all'Hardware AI

La domanda di hardware AI è in forte aumento, portando a una maggiore competizione tra i produttori di chip e i fornitori di servizi cloud che esplorano soluzioni di silicio personalizzate. Aziende come Nvidia, Intel, AMD e persino i fornitori di cloud sono in competizione per il dominio nel mercato dell'hardware AI.

Detected: 2026-02-07 · Updated: 2026-02-07

Articoli Correlati

2026-02-07 TechCrunch AI

Benchmark investe 225 milioni di dollari in Cerebras

La società di venture capital Benchmark Capital ha annunciato un investimento di 225 milioni di dollari in Cerebras Systems, produttore di processori dedicati all'intelligenza artificiale. Benchmark è investitore in Cerebras dal 2016, supportando lo ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-07 DigiTimes

Maia 200 di Microsoft: focus su costi, non competizione con Nvidia

Microsoft ha presentato Maia 200, un chip progettato per ottimizzare i costi di inference AI. L'obiettivo non è competere direttamente con Nvidia, ma offrire una soluzione più efficiente in termini di spesa per specifici carichi di lavoro. Il chip è ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Impennata della domanda AI: +10% per i server general-purpose nel 2026

La crescente richiesta di applicazioni di intelligenza artificiale sta avendo un impatto significativo sul mercato dei server. Si prevede un aumento del 10% nelle consegne di server general-purpose entro il 2026, trainato dalla necessità di infrastru...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 The Register AI

Investimenti record: Big Tech spenderanno 635 miliardi in infrastrutture AI

Amazon, Google, Meta e Microsoft prevedono di investire collettivamente circa 635 miliardi di dollari in infrastrutture, con una quota significativa destinata a datacenter e infrastrutture per l'intelligenza artificiale. Questa cifra supera il PIL di...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

Panther Lake: Nuovi benchmark Linux spingono al limite la CPU Intel

Nuovi benchmark Linux esaminano le prestazioni della CPU Intel Core Ultra X7 358H di Panther Lake con un budget energetico più elevato. I test rivelano notevoli miglioramenti generazionali, in particolare nell'efficienza energetica, e confermano le o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 Phoronix

AMD prepara il terreno per le GPU RDNA 4 con il target GFX1170

AMD continua lo sviluppo del suo stack di compilatori LLVM per le future GPU. È stato introdotto un nuovo target, GFX1170, identificato anche come RDNA 4m. Questo aggiornamento si aggiunge al lavoro già in corso sui target GFX1250 e GFX13, ampliando ...

#Hardware
2026-02-06 DigiTimes

TSMC punta sui 3nm in Giappone: accordo tecnicico più ampio?

L'investimento di TSMC nella tecnicia a 3nm in Giappone indica un rafforzamento della collaborazione tecnicica tra Taiwan e Giappone. Questa mossa strategica potrebbe avere implicazioni significative per la catena di approvvigionamento globale dei se...

2026-02-06 DigiTimes

Pegatron e Sysgration collaborano su server AI made in USA

Pegatron stringe una partnership con Sysgration per espandere la produzione di Battery Backup Units (BBU) destinate ai server AI prodotti negli Stati Uniti. Questa collaborazione mira a rafforzare la catena di approvvigionamento interna per component...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

MetaOptics integra metalenti resistenti al calore nelle CPU

MetaOptics, con sede a Singapore e stretti legami con Taiwan, sta sviluppando metalenti resistenti al calore per l'integrazione nelle CPU. Questa tecnicia potrebbe migliorare significativamente la gestione termica dei processori.

2026-02-06 DigiTimes

PSMC riduce le perdite grazie a DRAM e domanda AI

Il produttore di memorie PSMC registra una diminuzione delle perdite, trainata dall'aumento dei prezzi delle memorie DRAM e dalla crescente domanda di soluzioni per l'intelligenza artificiale. Questo andamento positivo riflette un miglioramento del m...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

I CSP guardano al silicio custom per ridurre la dipendenza da Nvidia

I cloud service provider (CSP) stanno esplorando soluzioni di silicio personalizzate per diversificare le proprie opzioni hardware e ridurre la dipendenza dai fornitori tradizionali come Nvidia. Questa tendenza potrebbe portare a nuove architetture o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Foxconn: boom del 35% grazie ai server AI a gennaio

Il produttore Foxconn registra un aumento del fatturato del 35% a gennaio, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato riflette la crescente importanza dell'hardware specializzato per i carichi di lavoro ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Wistron: crescita record a gennaio grazie ai server AI

Il produttore taiwanese Wistron ha registrato un gennaio eccezionalmente positivo, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato evidenzia il crescente interesse del mercato per soluzioni hardware specializ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-06 DigiTimes

Cerebras raccoglie 1 miliardo di dollari, valutazione triplicata

Cerebras Systems ha annunciato un round di finanziamento che porta la sua valutazione a quasi il triplo in soli sei mesi. L'azienda si concentra sullo sviluppo di hardware specializzato per carichi di lavoro di intelligenza artificiale, in particolar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-05 LocalLLaMA

gWorld: modello 8B batte Llama 4 da 402B generando codice web

Trillion Labs e KAIST AI hanno presentato gWorld, un modello di mondo visuale open-weight per interfacce grafiche mobile. gWorld, disponibile nelle versioni 8B e 32B, genera codice web eseguibile anziché pixel, superando in accuratezza modelli più gr...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 Tom's Hardware

Tenstorrent riduce i core Tensor delle Blackhole p150 via firmware

Tenstorrent ha annunciato una riduzione del numero di core Tensor sulle schede Blackhole p150, passando da 140 a 120 tramite un aggiornamento del firmware. L'azienda prevede un calo di performance dell'1-2% per gli utenti esistenti. Le nuove schede s...

#Hardware #LLM On-Premise #DevOps
2026-02-05 Tom's Hardware

Western Digital: HDD HAMR da 3,5 pollici con 14 piatti fino a 140 TB

Western Digital annuncia lo sviluppo di HDD (Hard Disk Drive) da 3,5 pollici basati su tecnicia HAMR (Heat-Assisted Magnetic Recording) con una capacità che raggiungerà i 140 TB, grazie all'utilizzo di 14 piatti. Questa tecnicia promette di aumentare...

#LLM On-Premise #DevOps
2026-02-05 Phoronix

Intel Arc B390: prestazioni grafiche su Linux con Panther Lake

Primi benchmark su Linux della GPU Intel Arc B390, integrata nei modelli Panther Lake di fascia alta. La scheda grafica Xe3, dotata di 12 Xe cores, promette prestazioni interessanti in ambito desktop e mobile per carichi di lavoro grafici e di calcol...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Google premia Innoscience per la produzione di GaN su wafer da 8 pollici

La scelta di Innoscience da parte di Google per la sua piattaforma AI sottolinea l'importanza della produzione di GaN (nitruro di gallio) su wafer da 8 pollici. Questa tecnicia promette di migliorare l'efficienza e le prestazioni dei sistemi di intel...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Siemens acquisisce Canopus AI per espandere l'EDA stack con l'AI

Siemens Digital Industries Software ha annunciato l'acquisizione di Canopus AI, mossa che mira a potenziare il proprio stack di Electronic Design Automation (EDA) con funzionalità avanzate di metrologia basate sull'intelligenza artificiale. L'integra...

2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Qualcomm segnala risultati record, ma prevede vincoli di memoria

Qualcomm ha annunciato risultati finanziari record per il primo trimestre dell'anno fiscale 2026. Tuttavia, l'azienda prevede potenziali limitazioni legate alla disponibilità di memoria nel prossimo futuro, un fattore che potrebbe influenzare le cons...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Jensen Huang: le fabbriche AI guideranno la reindustrializzazione

Secondo Jensen Huang, CEO di NVIDIA, le fabbriche di intelligenza artificiale rappresentano il motore di una nuova ondata di reindustrializzazione. Queste infrastrutture specializzate saranno fondamentali per lo sviluppo e l'implementazione di soluzi...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Infineon: crescita guidata dall'AI compensa le pressioni cicliche

La resilienza di Infineon nel primo trimestre fiscale del 2026 evidenzia come la crescita nel settore dell'intelligenza artificiale stia compensando le pressioni cicliche del mercato. L'azienda si dimostra capace di navigare le sfide economiche grazi...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Ibiden investe 3,3 miliardi di dollari in substrati IC per server AI

Il produttore giapponese Ibiden sta investendo massicciamente nell'espansione della produzione di substrati per circuiti integrati (IC). L'obiettivo è soddisfare la crescente domanda di server dedicati all'intelligenza artificiale. L'investimento tot...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

AEMC investe in R&D per adesivi per semiconduttori a Taiwan

AEMC realizzerà un centro di ricerca e sviluppo dedicato agli adesivi per semiconduttori nel Parco Scientifico di Taiwan Meridionale. L'iniziativa mira a rafforzare la posizione dell'azienda nel mercato dei materiali per l'elettronica.

2026-02-04 TechCrunch AI

Positron sfida Nvidia con chip AI: round da 230 milioni di dollari

Positron ha raccolto 230 milioni di dollari in un round di finanziamento Serie B, con la partecipazione del Qatar Investment Authority. L'azienda punta a competere con Nvidia nel mercato dei chip per l'intelligenza artificiale, in un contesto di cres...

#Hardware
2026-02-04 DigiTimes

Intel pianifica l'ingresso nel mercato delle GPU dominato da Nvidia

Il CEO di Intel ha annunciato l'intenzione di competere nel mercato delle GPU, attualmente dominato da Nvidia. Questa mossa strategica potrebbe portare nuove dinamiche nel settore dell'accelerazione hardware per carichi di lavoro di intelligenza arti...

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Nvidia detta i tempi per HBM4: Samsung e SK Hynix in competizione

La competizione per la produzione di memorie HBM4 si intensifica, con Nvidia che gioca un ruolo chiave nel definire le specifiche. Samsung e SK Hynix si contendono la leadership in questo settore cruciale per le future GPU e acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Forte domanda di server AI nel 2026, Vanguard Semiconductor ottimista

Vanguard International Semiconductor prevede una forte crescita della domanda di potenza per i server AI a partire dal 2026. La società si aspetta un impatto significativo sul mercato dei semiconduttori, con implicazioni per i produttori di hardware ...

#LLM On-Premise #DevOps
2026-02-04 DigiTimes

AMD punta sulla supply chain per l'AI nella seconda metà dell'anno

AMD sta concentrando i suoi sforzi sull'ottimizzazione della supply chain per sostenere la crescente domanda di soluzioni AI nella seconda metà dell'anno. Questa mossa strategica mira a garantire la disponibilità dei componenti necessari per la produ...

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Nvidia accelera validazione e test, fotonica al GTC 2026?

Nvidia intensifica i processi di validazione e test dei suoi prodotti. L'azienda potrebbe concentrarsi sulla fotonica al silicio come elemento chiave per le future GPU, con possibili novità al GTC 2026. Questa tecnicia promette di migliorare signific...

#Hardware
2026-02-04 DigiTimes

AMD: risultati finanziari in linea, ma manca la spinta per l'AI

AMD ha presentato risultati finanziari solidi, ma le aspettative del mercato dell'intelligenza artificiale, in particolare per quanto riguarda le consegne di soluzioni dedicate, restano in parte insoddisfatte. Gli investitori attendono segnali più co...

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Samsung Electro-Mechanics punta ai substrati Nvidia NVSwitch

Samsung Electro-Mechanics si prepara a entrare nella catena di fornitura dei substrati per Nvidia NVSwitch. Questa mossa strategica potrebbe rafforzare la posizione di Samsung nel mercato dei componenti ad alte prestazioni per applicazioni di intelli...

#Hardware #LLM On-Premise #DevOps
2026-02-03 TechCrunch AI

Intel punta al mercato GPU dominato da Nvidia

Intel intensifica gli sforzi per competere nel mercato delle GPU, attualmente dominato da Nvidia. L'azienda sta costruendo un team dedicato e svilupperà una strategia GPU incentrata sulle esigenze dei clienti. Questo segna un'importante evoluzione ne...

#Hardware #LLM On-Premise #DevOps
2026-02-03 Tom's Hardware

Intel collabora a Z-Angle Memory per data center AI

Intel e Saimemory (gruppo SoftBank) collaborano per sviluppare Z-Angle Memory (ZAM), una memoria verticale per data center AI. ZAM promette capacità 2-3 volte superiori, maggiore larghezza di banda e consumi dimezzati rispetto alle soluzioni attuali.

#Hardware #LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Intel Xeon 600: CPU workstation fino a 86 core

Intel ha lanciato i nuovi processori Xeon serie 600 per workstation, offrendo fino a 86 core. Questi processori supportano memorie fino a 8000 MT/s, 128 linee PCIe Gen5 e un TDP di 350W con supporto per l'overclocking. Si posizionano come un'alternat...

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

L'AI ridefinisce l'alimentazione dei data center a livello di rack

I data center si stanno evolvendo per supportare i crescenti carichi di lavoro dell'intelligenza artificiale. Nuove architetture di alimentazione a livello di rack emergono per gestire al meglio le richieste energetiche delle GPU ad alte prestazioni,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 DigiTimes

La Cina sfida Nvidia con chip AI prodotti in massa

La Cina aumenta la produzione di chip per l'intelligenza artificiale, erodendo la posizione dominante di Nvidia nel mercato cinese. Questa spinta all'autosufficienza tecnicica potrebbe ridefinire il panorama dell'hardware per l'AI, con implicazioni s...

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

King Slide e Nan Juen nella supply chain dei server Nvidia

King Slide e Nan Juen figurano tra i fornitori di guide per server Nvidia. Fositek si posiziona come un contendente promettente in questo mercato in crescita. La competizione per la fornitura di componenti per server ad alte prestazioni è in aumento.

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

Nvidia riprende il controllo del raffreddamento con AI CDU

Nvidia introduce AI CDU (Cooling Distribution Unit), segnalando un approccio software-defined alla gestione termica nei data center AI. Questo sviluppo potrebbe ottimizzare l'efficienza energetica e le performance dei sistemi di inference e training ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-02 Tom's Hardware

Ryzen 7 9850X3D: overclock di fabbrica del 9800X3D?

Dati di binning su 13 campioni di Ryzen 7 9850X3D suggeriscono che la CPU sia essenzialmente un 9800X3D con tensioni più elevate per raggiungere frequenze di clock superiori. Le prestazioni single-core del 9850X3D sembrano derivare principalmente da ...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

Computex: Huang preannuncia una nuova fase nella corsa all'AI

Jensen Huang, CEO di NVIDIA, prepara il terreno per il Computex, segnalando un'intensificazione della competizione nel settore dell'intelligenza artificiale. L'evento dovrebbe fare luce sulle ultime innovazioni hardware e software che alimentano la p...

#Hardware #LLM On-Premise #DevOps
2026-02-02 Tom's Hardware

Huang (Nvidia): TSMC deve accelerare per soddisfare la domanda AI

Il CEO di Nvidia, Jensen Huang, avverte che TSMC, il principale produttore di chip, dovrà incrementare significativamente la sua capacità produttiva per tenere il passo con la crescente domanda di hardware per l'intelligenza artificiale. Huang preved...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Nvidia GB200 spinge il settore chassis verso il raffreddamento a liquido

L'introduzione della GPU Nvidia GB200 sta accelerando l'adozione di sistemi di raffreddamento a liquido e integrazione a livello di rack nel settore dei chassis. Questa transizione è guidata dalla necessità di gestire l'aumento della densità di poten...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Produttori taiwanesi di PCB puntano al mercato dei server AI nel 2026

I produttori taiwanesi di circuiti stampati (PCB) stanno investendo in nuove capacità produttive, previste per il 2026, per soddisfare la crescente domanda di server dedicati all'intelligenza artificiale. Questa mossa strategica mira a posizionare le...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

Nvidia accelera la fotonica al silicio: produzione di massa nel 2026

Nvidia punta alla produzione di massa di soluzioni di fotonica al silicio entro il 2026. Questo sviluppo potrebbe avere un impatto significativo sulla catena di approvvigionamento ottica, aprendo la strada a interconnessioni più veloci ed efficienti ...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Soluzioni di raffreddamento taiwanesi per la crescente domanda di chip AI

L'industria taiwanese delle soluzioni di raffreddamento e alimentazione sta rispondendo alla crescente domanda di chip per l'intelligenza artificiale. La capacità di gestire l'aumento del consumo energetico e la dissipazione del calore è cruciale per...

#Hardware #LLM On-Premise #DevOps
2026-02-01 Phoronix

GNOME Resources 1.10 monitora le NPU AMD Ryzen AI

La nuova versione di GNOME Resources, la 1.10, introduce il monitoraggio delle NPU AMD Ryzen AI. Questa applicazione, pensata per il monitoraggio del sistema, è inclusa di default in distribuzioni come Ubuntu 26.04 LTS. L'aggiornamento include anche ...

#Hardware
2026-02-01 LocalLLaMA

OLMO 3.5: in arrivo un modello ibrido per inference LLM efficiente

Il modello OLMO 3.5 di AI2 combina l'attenzione transformer standard con l'attenzione lineare tramite Gated Deltanet. Questo approccio ibrido mira a migliorare l'efficienza e ridurre l'utilizzo di memoria, mantenendo la qualità del modello. La serie ...

#Fine-Tuning
2026-02-01 DigiTimes

I CSP aumentano il CapEx AI grazie alla supply chain più stabile

I cloud service provider (CSP) stanno incrementando gli investimenti in infrastrutture AI, grazie a una maggiore stabilità della supply chain. Questo aumento di CapEx è un indicatore della crescente domanda di risorse computazionali per l'intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-01-31 LocalLLaMA

M4 Max (128 GB) contro Ryzen AI Max+ (128 GB) per inference LLM

Un utente sta valutando quale dispositivo sia più adatto per l'inference di modelli linguistici di grandi dimensioni (LLM) in un ambiente di produzione, considerando velocità e capacità di fine-tuning. Il confronto è tra un Mac Studio con M4 Max e un...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-31 DigiTimes

Nvidia: competizione ASIC "illogica", R&D verso i 45 miliardi

Il CEO di Nvidia minimizza la competizione delle ASIC, definendola "illogica" a fronte degli ingenti investimenti in ricerca e sviluppo previsti, che si avvicinano ai 45 miliardi di dollari. L'azienda continua a puntare forte sulle GPU per l'accelera...

#Hardware #LLM On-Premise #DevOps
2026-01-31 DigiTimes

Nvidia chiede a TSMC maggiore impegno per far fronte alla domanda del 2026

Il CEO di Nvidia sollecita TSMC ad aumentare la capacità produttiva per soddisfare la crescente domanda prevista per il 2026. L'azienda prevede di raddoppiare la capacità nei prossimi 10 anni, segno di una forte espansione nel settore dell'intelligen...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic