Topic / Trend Rising

IA in Hardware e Infrastrutture

Le crescenti esigenze dell'IA stanno guidando l'innovazione in hardware e infrastrutture, tra cui chip specializzati, tecnicie di memoria avanzate e nuove architetture di data center. Le aziende stanno investendo massicciamente in queste aree per supportare le crescenti esigenze computazionali dei modelli di IA.

Detected: 2026-02-23 · Updated: 2026-02-23

Articoli Correlati

2026-02-23 DigiTimes

Kioxia esaurisce la capacità NAND del 2026 per la domanda AI

Il produttore di memorie Kioxia ha venduto tutta la sua capacità di produzione di memorie NAND prevista per il 2026, a causa della forte domanda guidata dalle applicazioni di intelligenza artificiale. La notizia evidenzia le crescenti pressioni sulla...

#LLM On-Premise #DevOps
2026-02-23 DigiTimes

AMD supporta Crusoe con un prestito da 300 milioni di dollari

AMD replica la strategia di Nvidia supportando finanziariamente Crusoe, fornitore di soluzioni per il recupero di energia dai data center. L'operazione prevede un prestito di 300 milioni di dollari, segnalando un crescente interesse dei produttori di...

#Hardware #LLM On-Premise #DevOps
2026-02-22 Tom's Hardware

Dell adotta connettore custom per GPU Nvidia contro il surriscaldamento

Dell introduce un connettore di alimentazione custom a 16 pin per le GPU Nvidia nei suoi PC preassemblati, affrontando i problemi di surriscaldamento e fusione riscontrati con i connettori standard. La soluzione mira a garantire una connessione più s...

#Hardware
2026-02-22 Phoronix

Linux 7.0 si prepara per Intel Diamond Rapids con supporto driver NTB

Il kernel Linux si prepara per i processori Xeon Diamond Rapids di prossima generazione di Intel, successori di Granite Rapids. Il supporto driver è in gran parte definito, con l'aggiunta del supporto driver NTB nel kernel Linux 7.0.

#Hardware #LLM On-Premise #DevOps
2026-02-21 Phoronix

AMD AOMP 23.0-0: Compilatore potenziato per GPU Radeon/Instinct

Rilasciata la versione 23.0-0 di AMD AOMP, un compilatore downstream di LLVM/Clang. Include patch AMD per ottimizzare l'offload su GPU Radeon e Instinct tramite API OpenMP e OpenACC. AOMP anticipa le future integrazioni in LLVM.

#Hardware #LLM On-Premise #DevOps
2026-02-21 DigiTimes

Infrastrutture rack: un tassello nella catena di approvvigionamento AI

La crescente domanda di capacità di calcolo per l'intelligenza artificiale sta spingendo l'evoluzione delle infrastrutture rack. I data center si preparano a sostenere carichi di lavoro sempre più intensi, con un occhio di riguardo all'efficienza ene...

#LLM On-Premise #DevOps
2026-02-20 Tech.eu

CLIMATEX ottiene 3,5 milioni di euro per tecnicie tessili circolari

La società svizzera CLIMATEX AG, specializzata in tecnicie tessili circolari, ha chiuso un round di finanziamento da 3,5 milioni di euro guidato dal Collateral Good Textile & Fashion Innovation Fund. I fondi saranno utilizzati per rafforzare le attiv...

2026-02-20 Tom's Hardware

UALink: standard aperto per interconnessioni data center AI

UALink, presentato a Hot Chips 2024, è uno standard aperto per interconnessioni nei data center AI. Mira a ridurre la dipendenza dai vendor, ottimizzando costi e performance. L'iniziativa promette maggiore flessibilità e controllo nell'infrastruttura...

#Hardware #LLM On-Premise #DevOps
2026-02-20 DigiTimes

Corsa all'IA: infrastrutture potenziate da fornitori taiwanesi

La crescente domanda di infrastrutture per l'intelligenza artificiale sta alimentando una competizione globale, con un impatto significativo sui fornitori di chip e server con sede a Taiwan. L'articolo analizza come questa dinamica stia influenzando ...

#LLM On-Premise #DevOps
2026-02-20 DigiTimes

I colossi tech puntano sull'AI fisica nell'era GenAI

Le grandi aziende tecniciche stanno investendo sempre più in infrastrutture fisiche per l'intelligenza artificiale generativa. Questa tendenza riflette la crescente importanza di hardware specializzato e stack locali per gestire i carichi di lavoro A...

#Hardware #LLM On-Premise #DevOps
2026-02-19 Tom's Hardware

La Cina accelera il raffreddamento a liquido per i server AI

L'espansione dell'intelligenza artificiale in Cina sta spingendo i fornitori nazionali ad adottare rapidamente sistemi di raffreddamento a liquido per i server, a causa delle crescenti esigenze di dissipazione termica dei cluster di calcolo intensivi...

#LLM On-Premise #DevOps
2026-02-18 Tom's Hardware

DLSS 4.5 di Nvidia primeggia su FSR e rendering nativo nei test

Nei test alla cieca su sei titoli, DLSS 4.5 di Nvidia ha ottenuto risultati significativamente superiori rispetto a FSR di AMD e al rendering nativo. I risultati indicano una preferenza marcata tra i videogiocatori su PC per la tecnicia di Nvidia, ev...

#Hardware #LLM On-Premise #DevOps
2026-02-18 Tom's Hardware

Meta punta su CPU Nvidia Grace per produzione, in arrivo Vera

Meta prevede di implementare CPU Nvidia Grace standalone in produzione, con l'architettura Vera in arrivo. L'azienda stima miglioramenti fino a 2X nel rapporto performance/watt per alcuni carichi di lavoro CPU.

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Meta investe in GPU Nvidia per infrastruttura AI multi-anno

Meta ha stretto un accordo pluriennale per assicurarsi milioni di GPU Nvidia e CPU, potenziando la propria infrastruttura dedicata all'intelligenza artificiale. L'investimento sottolinea l'importanza strategica dell'AI per Meta.

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Samsung spinge LPDDR5X-PIM: la memoria al centro dell'AI computing

Samsung sta sviluppando memorie LPDDR5X-PIM (Processing-in-Memory) per accelerare i carichi di lavoro di intelligenza artificiale. Questa tecnicia mira a ridurre i colli di bottiglia spostando parte dell'elaborazione direttamente all'interno del chip...

#LLM On-Premise #DevOps
2026-02-17 DigiTimes

Boom di fabbriche AI a Taiwan spinge costruzioni e speculazioni fondiarie

L'aumento della domanda di infrastrutture per l'intelligenza artificiale a Taiwan sta generando un'impennata nel settore delle costruzioni e nel mercato fondiario. La necessità di data center e fabbriche specializzate per ospitare carichi di lavoro A...

#LLM On-Premise #DevOps
2026-02-17 The Register AI

Meta punta sui processori Nvidia per l'AI su larga scala

Meta intensifica la collaborazione con Nvidia, integrando i processori Grace di Nvidia nei propri sistemi CPU-only. L'azienda prevede di implementare milioni di GPU nei prossimi anni e sta già lavorando all'adozione delle future CPU Vera di Nvidia a ...

#Hardware #LLM On-Premise #DevOps
2026-02-17 TechCrunch AI

Mesh raccoglie 50 milioni per collegamenti data center AI

Mesh, startup fondata da ex dipendenti di SpaceX, ha raccolto 50 milioni di dollari in un round di finanziamento di Serie A. L'obiettivo è la produzione di massa di transceiver ottici destinati ai data center che supportano carichi di lavoro di intel...

#Hardware #LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

AMD Ryzen AI Max: Incremento di velocità con llama.cpp e ROCm

Segnalato un significativo aumento di velocità nell'elaborazione dei prompt con llama.cpp e ROCm su Strix Halo (Ryzen AI Max). I test mostrano miglioramenti fino al 132% in alcuni modelli, aprendo nuove prospettive per l'inference di LLM su hardware ...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic