Topic / Trend Rising

Hardware e Infrastrutture AI

La domanda di AI sta guidando investimenti e innovazione significativi in hardware e infrastrutture, tra cui GPU, CPU, memoria e data center. Le aziende sono in competizione per sviluppare hardware più potente ed efficiente per supportare le crescenti esigenze computazionali dei modelli AI.

Detected: 2026-01-26 · Updated: 2026-03-22

Articoli Correlati

2026-03-22 DigiTimes

Chunghwa Precision Test investe in una nuova fabbrica per chip AI

Chunghwa Precision Test (CPT) ha avviato la costruzione di un nuovo stabilimento a Taiwan per rispondere alla crescente domanda di chip per applicazioni di intelligenza artificiale. L'espansione mira a supportare la produzione di componenti essenzial...

2026-03-22 DigiTimes

Delta punta sui data center AI di nuova generazione con soluzioni a 800V

Delta Electronics si prepara a supportare i data center AI di prossima generazione con alimentazione a 800V DC e sistemi di raffreddamento a liquido. L'azienda mira a soddisfare le crescenti esigenze di potenza e raffreddamento delle infrastrutture d...

#Hardware #LLM On-Premise #DevOps
2026-03-20 Tom's Hardware

Softbank pianifica un data center da 10 GW in Ohio

Softbank progetta di costruire in Ohio un data center da 10 gigawatt, potenzialmente il più grande al mondo. L'infrastruttura richiederà una centrale a gas naturale da 33 miliardi di dollari, equivalente a nove reattori nucleari.

#LLM On-Premise #DevOps
2026-03-20 ServeTheHome

NVIDIA DGX Station: workstation GB300 e GB200 per AI desktop

NVIDIA rende disponibili le DGX Station basate su architettura Grace Blackwell, incluse le versioni GB300 e GB200. Queste workstation desktop portano la potenza di calcolo necessaria per l'AI direttamente sulla scrivania degli sviluppatori e dei rice...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-20 DigiTimes

Server Nvidia Vera Rubin spingono la domanda di raffreddamento a liquido

I server Nvidia Vera Rubin, progettati per carichi di lavoro intensivi, stanno aumentando la richiesta di sistemi di raffreddamento a liquido. Questa tendenza è guidata dalla necessità di gestire l'elevata densità di potenza e il calore generato dai ...

#Hardware #LLM On-Premise #DevOps
2026-03-20 TechWire Asia

NVIDIA DRIVE Hyperion: i costruttori auto asiatici puntano sull'AI

BYD, Geely, Nissan e Isuzu adottano NVIDIA DRIVE Hyperion per lo sviluppo di veicoli autonomi di livello 4. La piattaforma di NVIDIA si sta affermando come infrastruttura standard nel mercato APAC, offrendo un'architettura di riferimento completa per...

#Hardware #LLM On-Premise #DevOps
2026-03-20 DigiTimes

Alibaba investe 100 miliardi di dollari in AI: focus sulla crescita cloud

Alibaba ha annunciato un piano di investimenti da 100 miliardi di dollari nel settore dell'intelligenza artificiale, con un'enfasi particolare sull'espansione dei servizi cloud. Questa mossa strategica mira a rafforzare la posizione di Alibaba nel me...

#LLM On-Premise #DevOps
2026-03-19 DigiTimes

Intel punta sul packaging avanzato per recuperare terreno nei foundry AI

Intel sta investendo nel packaging avanzato per competere nel mercato dei foundry per applicazioni di intelligenza artificiale. Questa mossa strategica mira a colmare il divario tecnicico e riconquistare quote di mercato nel settore in rapida crescit...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Tom's Hardware

Deficit commerciale USA a livelli record: boom import hardware AI

Il deficit commerciale degli Stati Uniti ha raggiunto un picco di 1.200 miliardi di dollari, spinto da un aumento del 60% delle importazioni di hardware per l'intelligenza artificiale, in particolare chip provenienti dall'Asia. La domanda interna sup...

#Hardware
2026-03-19 ServeTheHome

NVIDIA Vera: CPU ad alte prestazioni per il mercato server AI

NVIDIA, nota per le sue GPU, continua a investire nel mercato delle CPU. Con la CPU Vera, l'azienda punta a espandere la propria presenza nel settore dei server dedicati all'intelligenza artificiale, diversificando ulteriormente il suo portafoglio pr...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Groq e CPU: nuove architetture per l'inference AI

L'articolo esplora come l'architettura di Groq si posiziona rispetto alla strategia di inference di Nvidia, e come le CPU stiano ridefinendo il panorama architetturale per gli agenti AI, aprendo nuove prospettive sull'elaborazione distribuita e speci...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

HBM: la Corea del Sud e Taiwan possono permettersi una guerra fredda?

La produzione di HBM (High Bandwidth Memory) è cruciale per le GPU utilizzate nell'intelligenza artificiale. Tensioni geopolitiche tra Corea del Sud e Taiwan, entrambi leader nella produzione di chip di memoria, potrebbero avere ripercussioni signifi...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Micron: risultati finanziari record nel 2Q26 grazie alla domanda di AI

Secondo Digitimes, Micron ha annunciato risultati finanziari eccezionali per il secondo trimestre del 2026, trainati principalmente dalla forte domanda di soluzioni per l'intelligenza artificiale. Questo dato sottolinea il ruolo crescente dell'AI com...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-19 DigiTimes

Micron: risultati record nel FQ2 2026 grazie alla domanda di AI

Micron Technology prevede risultati finanziari superiori alle attese per il secondo trimestre del 2026, trainati dalla forte domanda di soluzioni di memoria ad alte prestazioni per applicazioni di intelligenza artificiale. L'azienda beneficia in part...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-19 DigiTimes

Intel espande EMIB in Malesia: incertezza su Section 232

Intel prevede di ampliare le proprie capacità EMIB in Malesia, in un contesto di incertezza legato all'indagine della Section 232. Questa mossa strategica potrebbe avere implicazioni significative per la catena di approvvigionamento dei semiconduttor...

#Hardware #LLM On-Premise #DevOps
2026-03-18 TechCrunch AI

Nvidia punta al networking: un business da 11 miliardi di dollari

Il settore networking di Nvidia ha generato 11 miliardi di dollari di fatturato nell'ultimo trimestre, superando le aspettative e ponendosi come un pilastro strategico accanto al core business delle GPU e del gaming. Questa crescita sottolinea l'impo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-18 DigiTimes

Nvidia: futuro dell'interconnessione tra rame e fibra ottica

Secondo Digitimes, Nvidia sta esplorando un futuro in cui le interconnessioni tra componenti hardware sfrutteranno sia il rame che la fibra ottica. Questa strategia potrebbe avere implicazioni significative per le architetture di calcolo ad alte pres...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

GTC 2026: Memoria, consumi e consegne sfidano l'infrastruttura AI

Secondo DIGITIMES, le crescenti richieste di memoria, i vincoli energetici e le complessità nelle consegne stanno ridefinendo le infrastrutture per l'intelligenza artificiale. Al GTC 2026, questi fattori saranno centrali per lo sviluppo e l'adozione ...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

OpenAI punta sul cloud, ridimensiona i data center proprietari

OpenAI sta modificando la sua strategia infrastrutturale, passando dalla costruzione di data center proprietari al leasing di capacità di calcolo nel cloud. La mossa segnala un potenziale cambio di priorità verso una maggiore flessibilità e scalabili...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia H200: via libera in Cina e riavvio della produzione

Nvidia ottiene l'approvazione e gli ordini per la GPU H200 in Cina, riavviando la produzione della supply chain. Questo sviluppo indica una forte domanda di soluzioni di calcolo ad alte prestazioni nel mercato cinese, nonostante le restrizioni normat...

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Vera Rubin POD: supercomputer AI da 60 exaflop basato su sette chip

Nvidia presenta Vera Rubin POD, un supercomputer AI da 60 exaflop alimentato da sette chip Rubin. La soluzione, alloggiata in 40 rack, rappresenta un'infrastruttura di calcolo avanzata per carichi di lavoro di intelligenza artificiale complessi.

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Rubin Ultra: la prima GPU AI con 1TB di HBM4E

Nvidia ha presentato Rubin Ultra, la prima GPU AI al mondo dotata di 1TB di memoria HBM4E. I nuovi chip saranno integrati nei rack Kyber, aprendo nuove frontiere per le prestazioni nell'inference e nel training di modelli di grandi dimensioni. Questa...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 AI News

Goldman Sachs: investimenti AI si spostano verso i data center

Goldman Sachs prevede una crescita degli investimenti nelle infrastrutture per l'AI, con un focus sui data center e sull'hardware di calcolo. La domanda di potenza di calcolo per il training e l'inference dei modelli sta rimodellando il mercato dei d...

#Hardware #Fine-Tuning #DevOps
2026-03-17 DigiTimes

Hon Precision aumenta del 40% la capacità di test chip AI

Hon Precision, fornitore di servizi di test per chip AI, prevede di aumentare la propria capacità del 40% a causa della crescente domanda. Questa espansione riflette la forte crescita del mercato dei semiconduttori per applicazioni di intelligenza ar...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

Nvidia GTC 2026: mercato inference a 1 trilione, LPU da Samsung

Secondo Digitimes, durante il GTC 2026, Jensen Huang ha previsto un mercato dell'inference AI da 1 trilione di dollari. Nvidia starebbe collaborando con Samsung per la produzione di una nuova LPU (Logic Processing Unit). L'annuncio sottolinea la cres...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

Micron avvia la produzione di HBM4 e SSD PCIe Gen6 per Nvidia

Micron ha annunciato l'avvio della produzione su larga scala di memorie HBM4 e SSD PCIe Gen6, destinate alle piattaforme Nvidia. Questo sviluppo segna un passo avanti significativo per le prestazioni dei sistemi di calcolo ad alte prestazioni e delle...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia prevede vendite hardware AI per 1 trilione di dollari entro il 2027

Il CEO di Nvidia, Jensen Huang, stima che l'azienda venderà hardware per l'intelligenza artificiale per un valore di 1 trilione di dollari entro il 2027. Questa previsione riflette la crescente domanda di capacità di calcolo per supportare lo svilupp...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia Vera Rubin: potenza di calcolo AI 25x H100 per data center orbitali

Nvidia presenta il modulo Vera Rubin, pensato per l'elaborazione di dati in orbita. Offre una capacità di calcolo AI fino a 25 volte superiore rispetto a una GPU H100, aprendo nuove frontiere nell'analisi spaziale e nell'inference a bassa latenza dir...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Intel Xeon 6: CPU per i sistemi Nvidia DGX Rubin NVL8

Intel si aggiudica un contratto significativo: i processori Xeon 6 saranno utilizzati nei sistemi Nvidia DGX Rubin NVL8. Questa mossa avviene mentre Nvidia entra nel mercato dei processori per data center con le CPU Vera.

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia Vera: CPU a 88 core per competere con AMD e Intel

Nvidia presenta Vera, una nuova CPU a 88 core progettata per sfidare AMD e Intel. I rack di CPU Vera, raffreddati a liquido, integrano 256 chip, offrendo un incremento di throughput fino a 6 volte superiore rispetto alle soluzioni esistenti. Questa m...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Roadmap di Intel: processori 14A, Nova Lake, Diamond Rapids e acceleratori AI

Intel prosegue nello sviluppo di nuove architetture hardware, con un focus particolare sui processori 14A, Nova Lake e Diamond Rapids. L'azienda punta anche a rafforzare la propria offerta di acceleratori dedicati all'intelligenza artificiale, in un ...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia GTC 2026: Anticipazioni sulla prossima generazione di GPU

Un'anteprima del futuro dell'accelerazione computazionale: cosa aspettarsi dalla conferenza Nvidia GTC 2026 in termini di nuove architetture GPU e progressi nell'ambito dell'intelligenza artificiale. L'evento rimane un punto di riferimento per i prof...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-13 DigiTimes

Hygon: boom di ricavi grazie all'IA spinge il contendente cinese x86

Il produttore cinese di chip Hygon ha registrato un aumento del 57% dei ricavi, trainato dalla crescente domanda di potenza di calcolo per l'intelligenza artificiale. Questo dato evidenzia la crescente importanza dei fornitori di hardware cinesi nel ...

#Hardware #LLM On-Premise #DevOps
2026-03-13 DigiTimes

Mercato server AI: ricavi trainati da test, design e rail kit

Secondo DIGITIMES, il mercato dei server AI è sostenuto dai ricavi derivanti da servizi di test, progettazione e fornitura di rail kit. Questi elementi rappresentano un indicatore chiave della domanda e dell'evoluzione del settore.

#LLM On-Premise #DevOps
2026-03-13 DigiTimes

Smart City Summit espande il focus: AI, robotica e virtual power plants

Lo Smart City Summit & Expo amplia il suo raggio d'azione includendo un padiglione dedicato all'intelligenza artificiale, alla robotica e alle virtual power plants. L'evento riflette la crescente importanza di queste tecnicie nello sviluppo delle cit...

#LLM On-Premise #DevOps
2026-03-13 DigiTimes

APMIC accelera l'adozione di modelli AI privati on-premise

Il finanziamento di Serie A da 7 milioni di dollari di APMIC potrebbe dare impulso all'adozione di modelli di intelligenza artificiale privati eseguiti on-premise. Questa tendenza risponde alla crescente esigenza di controllo dei dati e conformità no...

#LLM On-Premise #DevOps
2026-03-13 DigiTimes

Ritardo dei chip AI di Tesla spinge indietro DeepX di sei mesi

Il ritardo nella produzione dei chip di intelligenza artificiale di Tesla ha costretto la startup sudcoreana DeepX a rivedere i propri piani di sviluppo, posticipando di circa sei mesi la tabella di marcia prevista per i suoi NPU (Neural Processing U...

#Hardware #LLM On-Premise #DevOps
2026-03-13 The Register AI

Nvidia GTC 2026: focus su tokenomics e accelerazione dell'inference

La prossima edizione del GTC di Nvidia si preannuncia cruciale per affrontare le sfide legate alla generazione di token nei carichi di lavoro di intelligenza artificiale generativa. L'evento dovrebbe svelare nuove soluzioni hardware e software per mi...

#Hardware #LLM On-Premise #DevOps
2026-03-13 DigiTimes

Software AI di Flytech: ricavi oltre 100 milioni di NT$ nel 2025

Secondo quanto riportato, il software basato su intelligenza artificiale di Flytech prevede di superare i 100 milioni di NT$ di ricavi nel 2025. L'azienda, guidata dal presidente Tai-Seng Lam, punta a una crescita significativa grazie alle proprie so...

2026-03-13 DigiTimes

Tensioni geopolitiche e AI spingono i costi, rischi sulla supply chain

Le crescenti tensioni geopolitiche in Medio Oriente, unite alla forte domanda di soluzioni di intelligenza artificiale, stanno esercitando una notevole pressione sui costi e spostando i rischi legati alla supply chain sui clienti finali. La situazion...

#Hardware #LLM On-Premise #DevOps
2026-03-13 DigiTimes

Fibra di carbonio T1200 alza la posta in aerospazio e robotica

Il nuovo materiale in fibra di carbonio T1200 di China National Building Material promette di ridefinire gli standard in settori ad alta tecnicia come l'aerospazio, la robotica avanzata e la manifattura, grazie a proprietà meccaniche superiori. Le im...

2026-03-13 TechCrunch AI

Nvidia GTC 2026: Anticipazioni sul Keynote di Jensen Huang

Il GTC, evento annuale di Nvidia, è l'occasione in cui l'azienda svela nuovi prodotti, partnership strategiche e la propria visione del futuro del calcolo. Il keynote di Jensen Huang si concentrerà sul ruolo di Nvidia nell'evoluzione del calcolo e de...

#Hardware #LLM On-Premise #DevOps
2026-03-13 ServeTheHome

Meta delinea la roadmap degli acceleratori MTIA di nuova generazione

Meta ha condiviso dettagli sul suo acceleratore AI MTIA 300, già in produzione, e sulle future generazioni MTIA 400, 450 e 500 destinate alla propria infrastruttura di calcolo per l'intelligenza artificiale. L'azienda continua a investire in soluzion...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-13 DigiTimes

Samsung punta al 2nm per HBM4E: spinta per i chip AI

Samsung intende utilizzare un processo produttivo a 2nm per i base die delle memorie HBM4E. Questa mossa strategica mira a migliorare le prestazioni e l'efficienza dei chip destinati alle applicazioni di intelligenza artificiale, in particolare in co...

#LLM On-Premise #DevOps
2026-03-13 DigiTimes

AcBel Polytech punta sull'HVDC per i data center AI

AcBel Polytech ha annunciato risultati solidi per il quarto trimestre del 2025, spingendo la strategia HVDC (High Voltage Direct Current) per i data center dedicati all'intelligenza artificiale. L'azienda punta a migliorare l'efficienza energetica e ...

#Hardware #LLM On-Premise #DevOps
2026-03-13 DigiTimes

Flexium punta al 30% del fatturato da server AI e smart glasses nel 2026

Il produttore taiwanese Flexium prevede una crescita significativa del fatturato derivante da server dedicati all'intelligenza artificiale e smart glasses entro il 2026. L'azienda punta a diversificare il proprio business, cavalcando l'onda della cre...

#Hardware #LLM On-Premise #DevOps
2026-03-12 Tom's Hardware

AMD, Nvidia e Broadcom: futuro optical scale-up a 3.2 Tb/s per AI

AMD, Broadcom e Nvidia collaborano con hyperscaler per definire un nuovo standard di interconnessione ottica per cluster AI, puntando a velocità di 3.2 Tb/s. Meta, Microsoft e OpenAI beneficeranno di questa evoluzione, essenziale per gestire i cresce...

#Hardware #LLM On-Premise #DevOps
2026-03-12 Tom's Hardware

Meta svela MTIA, chip per inference AI con rilascio ogni sei mesi

Meta ha annunciato la sua nuova famiglia di chip MTIA (Meta Training and Inference Accelerator) progettati specificamente per l'inference di modelli di intelligenza artificiale. L'azienda prevede di rilasciare nuove versioni di questi chip ogni sei m...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-12 DigiTimes

JetCool e Broadcom collaborano sul raffreddamento a liquido per chip AI

JetCool e Broadcom uniscono le forze per sviluppare soluzioni di raffreddamento a liquido destinate ai chip per applicazioni di intelligenza artificiale. L'obiettivo è gestire l'aumento della densità di potenza e garantire prestazioni ottimali dei si...

#LLM On-Premise #DevOps
2026-03-12 DigiTimes

Designer taiwanesi di IC verso consegne AI a livello di rack

I progettisti di circuiti integrati (IC) di Taiwan si stanno orientando verso la fornitura di soluzioni AI a livello di rack. Questa tendenza riflette una crescente domanda di capacità di calcolo AI on-premise, in particolare per applicazioni che ric...

#LLM On-Premise #DevOps
2026-03-12 DigiTimes

UMC e HyperLight: chiplet fotonici TFLN per data center AI

UMC e HyperLight collaborano per la produzione di chiplet fotonici TFLN (Thin-Film Lithium Niobate) da 8 pollici. Questi componenti sono destinati ai data center AI, promettendo miglioramenti nelle prestazioni e nell'efficienza energetica delle comun...

2026-03-12 Tech.eu

AIRMO raccoglie 5 milioni per monitoraggio GHG da spazio e droni

La startup AIRMO, con sede a Berlino e Lussemburgo, ha ottenuto 5 milioni di euro per sviluppare tecnicie avanzate di monitoraggio dei gas serra (GHG) tramite satelliti e droni. Il finanziamento supporterà il lancio del primo satellite nel 2027 e l'e...

#LLM On-Premise #DevOps
2026-03-12 DigiTimes

Lisa Su (AMD) in Corea del Sud: incontri con Samsung e Naver

Il CEO di AMD, Lisa Su, prevede un viaggio in Corea del Sud per discutere potenziali collaborazioni con Samsung e Naver. La visita coincide con la GTC di Nvidia, evento chiave per il settore dell'intelligenza artificiale e del calcolo accelerato.

#Hardware #LLM On-Premise #DevOps
2026-03-12 DigiTimes

Asus punta sull'AI: boom dei server e nuova divisione infrastrutture

Asus risponde alla crescente domanda di server AI creando una divisione dedicata alle soluzioni infrastrutturali. La mossa arriva in seguito a un significativo aumento dei ricavi derivanti dalla vendita di server ottimizzati per carichi di lavoro di ...

#LLM On-Premise #DevOps
2026-03-12 DigiTimes

Server AI: Chenbro evidenzia quattro fattori di rischio nel mercato

Secondo DIGITIMES, Chenbro vede un futuro promettente per i server AI, ma sottolinea quattro aree di rischio che potrebbero influenzare il mercato. L'azienda non ha specificato quali siano questi rischi, ma la notizia evidenzia le incertezze nel sett...

#Hardware #LLM On-Premise #DevOps
2026-03-12 DigiTimes

Nvidia investe 2 miliardi di dollari in Nebius per cloud AI hyperscale

Nvidia ha annunciato un investimento di 2 miliardi di dollari in Nebius, con l'obiettivo di sviluppare un'infrastruttura cloud di nuova generazione specificamente progettata per carichi di lavoro di intelligenza artificiale (AI) su larga scala. L'ini...

#Hardware
2026-03-12 DigiTimes

Fornitori taiwanesi di moduli ottici e BMC spinti dalla domanda di server AI

I fornitori taiwanesi di moduli ottici e BMC (Baseboard Management Controller) beneficiano della forte domanda di server AI, nonostante il minor numero di giorni lavorativi a febbraio. La crescita è trainata dalla necessità di infrastrutture hardware...

#Hardware #LLM On-Premise #DevOps
2026-03-12 DigiTimes

Pegatron prevede un boom dei ricavi dai server AI: +10x entro il 2026

Il produttore taiwanese Pegatron stima una crescita esponenziale dei ricavi derivanti dai server dedicati all'intelligenza artificiale, prevedendo un aumento di dieci volte entro il 2026. Questa espansione significativa dovrebbe trainare la crescita ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-11 ServeTheHome

Supermicro NVIDIA B300: uno sguardo alle fabbriche AI

Un'analisi delle soluzioni Supermicro NVIDIA B300 e dei componenti necessari per costruire una fabbrica di intelligenza artificiale. L'articolo confronta la generazione B300 con la precedente B200, esaminando l'hardware e l'infrastruttura necessari p...

#Hardware #LLM On-Premise #DevOps
2026-03-11 ServeTheHome

Broadcom presenta Taurus BCM83640: DSP ottico a 3nm per reti AI

Broadcom ha annunciato Taurus BCM83640, un nuovo processore di segnale digitale (DSP) ottico a 3nm progettato per reti AI di prossima generazione. Questo chip PAM4 400G per lane promette di migliorare la densità e la velocità delle comunicazioni in a...

#Hardware
2026-03-11 Tom's Hardware

Celle cerebrali umane alimenteranno nuovi data center

Cortical Labs punta a risolvere la crisi energetica dell'AI con computer biologici. La tecnicia 'body-in-the-box' CL1 promette consumi inferiori a quelli di una calcolatrice, aprendo nuove frontiere nel calcolo ad alta efficienza.

#LLM On-Premise #DevOps
2026-03-11 DigiTimes

MiTAC espande la produzione per rispondere alla domanda di server AI

MiTAC prevede di ampliare la propria capacità produttiva entro il 2026 per soddisfare la crescente domanda di server dedicati all'intelligenza artificiale e soluzioni cloud. Questa mossa strategica segnala un impegno crescente verso il mercato statun...

#Hardware
2026-03-11 DigiTimes

Nvidia valuta il packaging HBM4 di Samsung per le GPU Rubin

Secondo indiscrezioni, Nvidia sta valutando le capacità di packaging HBM4 di Samsung per le future GPU Rubin. Questa valutazione è cruciale per garantire che le prossime generazioni di GPU ad alte prestazioni possano sfruttare al meglio le memorie HB...

#Hardware #LLM On-Premise #DevOps
2026-03-11 DigiTimes

OpenClaw e l'ecosistema cloud cinese: 13 aziende coinvolte

La piattaforma di agenti AI OpenClaw sta integrando un numero significativo di aziende tecniciche nell'ecosistema cloud e dei dispositivi cinesi. L'iniziativa evidenzia la crescente influenza delle soluzioni AI locali e le dinamiche del mercato tecni...

#LLM On-Premise #DevOps
2026-03-11 DigiTimes

Applied Materials investe 5 miliardi $ in R&D per memorie AI

Applied Materials collabora con Micron e SK Hynix per un hub di ricerca e sviluppo da 5 miliardi di dollari focalizzato sulle memorie per applicazioni di intelligenza artificiale. L'iniziativa mira a migliorare le prestazioni e l'efficienza delle mem...

#Hardware #LLM On-Premise #DevOps
2026-03-11 DigiTimes

Oracle supera le stime grazie alla domanda di cloud AI

Oracle ha superato le aspettative degli analisti, trainata dalla crescente domanda di servizi cloud per l'intelligenza artificiale. La crescita del settore AI sta contribuendo a mitigare le preoccupazioni relative al finanziamento dell'azienda.

#LLM On-Premise #DevOps
2026-03-11 DigiTimes

Oracle: infrastruttura AI profittevole, margini in crescita

Oracle segnala che i suoi progetti infrastrutturali per l'intelligenza artificiale stanno generando profitti, con aspettative di miglioramento dei margini man mano che la capacità implementata diventa operativa. L'azienda punta sull'aumento della dom...

#Hardware #LLM On-Premise #DevOps
2026-03-10 AI News

ABB e NVIDIA: simulazione AI fisica per l'automazione industriale

La partnership tra ABB e NVIDIA punta a colmare il divario tra modelli digitali e ambienti di produzione reali tramite RobotStudio HyperReality. La simulazione fisica basata su NVIDIA Omniverse promette di ridurre i costi di implementazione fino al 4...

#Hardware #LLM On-Premise #DevOps
2026-03-10 DigiTimes

Adlink: domanda di edge AI spinge ricavi di febbraio

Adlink ha registrato un aumento del 16% nei ricavi di febbraio, trainato dalla crescente domanda di soluzioni edge AI per display. Questo dato evidenzia la crescente importanza dell'intelligenza artificiale distribuita e delle applicazioni in tempo r...

#LLM On-Premise #DevOps
2026-03-10 DigiTimes

HPE vede impennata ordini AI: shortage memorie impatta prezzi

Hewlett Packard Enterprise registra un aumento significativo degli ordini nel settore dell'intelligenza artificiale. La forte domanda, combinata con la scarsità di memorie, sta portando a nuove strategie di gestione dei prezzi e della fornitura.

#LLM On-Premise #DevOps
2026-03-10 DigiTimes

MAtek: Crescita nel testing chip AI, ma profitti in calo

Il business dei test di MAtek è in espansione grazie alla crescente complessità dei chip per l'intelligenza artificiale. Tuttavia, l'aumento dei costi operativi sta comprimendo i margini di profitto. La società prevede di investire in nuove tecnicie ...

#LLM On-Premise #DevOps
2026-03-09 ServeTheHome

AMD Ryzen AI Embedded P100: nuovi modelli a 8 e 12 core

La famiglia AMD Ryzen AI Embedded P100 si espande con l'introduzione di processori a 8 e 12 core. Questi nuovi modelli mirano a coprire nuove fasce di performance, offrendo opzioni più scalabili per applicazioni embedded che richiedono capacità di in...

#Hardware #LLM On-Premise #DevOps
2026-03-09 AI News

Regno Unito investe in infrastruttura AI sovrana

Il Regno Unito lancia un fondo da 500 milioni di sterline per sviluppare un'infrastruttura di calcolo AI nazionale. L'iniziativa mira a trasformare il paese in un produttore di tecnicie, rafforzare la supply chain e semplificare la governance dei dat...

#Hardware #LLM On-Premise #DevOps
2026-03-09 The Next Web

Nscale raccoglie 2 miliardi di dollari e punta all'inference on-premise

L'hyperscaler britannico Nscale ha annunciato un round di finanziamento di Serie C da 2 miliardi di dollari, portando il totale raccolto in meno di sei mesi a oltre 4,5 miliardi. L'azienda punta a espandere la propria infrastruttura per carichi di la...

#Hardware #LLM On-Premise #DevOps
2026-03-09 DigiTimes

USA e Finlandia in lizza per il sistema quantistico ibrido di Taiwan

Stati Uniti e Finlandia sono i principali contendenti per la fornitura di un sistema di calcolo ibrido quantistico a Taiwan. Il presidente di Academia Sinica, James C Liao, ha confermato l'interesse delle due nazioni per il progetto.

#LLM On-Premise #DevOps
2026-03-09 DigiTimes

Boom dei satelliti LEO: pressione sui fornitori taiwanesi di PCB

L'aumento delle consegne di satelliti in orbita terrestre bassa (LEO) sta intensificando la pressione sui fornitori taiwanesi di circuiti stampati (PCB). La domanda crescente mette a dura prova la capacità produttiva e le catene di approvvigionamento...

2026-03-09 DigiTimes

Foxconn punta sui server AI grazie all'integrazione con Nvidia

Foxconn rafforza la sua posizione nel mercato dei server AI grazie alla stretta collaborazione con Nvidia. L'integrazione full-stack e le profonde sinergie tra le due aziende permettono a Foxconn di competere nel settore in rapida crescita dell'intel...

#Hardware #LLM On-Premise #DevOps
2026-03-09 DigiTimes

Advantech: una via d'uscita dal 'caos' dell'AI fisica nel 2026

Advantech prevede una soluzione per le sfide legate all'implementazione di soluzioni di intelligenza artificiale su hardware dedicato entro il 2026. L'azienda punta a semplificare la gestione e l'orchestrazione delle risorse fisiche per carichi di la...

#Hardware #LLM On-Premise #DevOps
2026-03-09 DigiTimes

USA valutano restrizioni globali sull'export di chip AI

Gli Stati Uniti stanno considerando di ampliare le restrizioni sull'esportazione di chip per l'intelligenza artificiale, nel tentativo di prevenire la loro deviazione verso paesi terzi. L'obiettivo è limitare l'accesso a tecnicie avanzate che potrebb...

#LLM On-Premise #DevOps
2026-03-08 TechCrunch AI

Data center AI: si guarda ai campi di lavoro per l'housing

Gli sviluppatori di data center per l'intelligenza artificiale stanno adottando modelli di alloggi modulari, ispirati ai campi di lavoro remoti, per ospitare il personale tecnico specializzato. Questa tendenza solleva interrogativi sull'impatto socia...

#LLM On-Premise #DevOps
2026-03-07 DigiTimes

Wistron: ricavi record a febbraio grazie ai server AI

Il produttore taiwanese Wistron ha annunciato ricavi record per il mese di febbraio, trainati principalmente dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato sottolinea la crescente importanza dell'hardware specializza...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-07 DigiTimes

Crescita dell'AI: il consumo energetico potrebbe essere il vero limite

Un dirigente di Applied Materials avverte che la crescita esponenziale dell'intelligenza artificiale potrebbe presto scontrarsi con limiti legati al consumo energetico, più che alla disponibilità di chip. L'efficienza energetica diventa quindi un fat...

#Hardware #LLM On-Premise #DevOps
2026-03-07 Tom's Hardware

Huang (Nvidia): "Amo i vincoli". La scarsità spinge a scegliere il meglio?

Il CEO di Nvidia, Jensen Huang, ha dichiarato di apprezzare i vincoli imposti dalla carenza di componenti. Secondo Huang, la mancanza di alternative costringe i clienti AI a selezionare solo le soluzioni migliori, ottimizzando l'efficienza e le prest...

#Hardware #LLM On-Premise #DevOps
2026-03-06 The Register AI

USA verso restrizioni più stringenti sull'export di chip AI

L'amministrazione statunitense starebbe pianificando nuove restrizioni sull'export di GPU. Le nuove regole potrebbero obbligare aziende come Nvidia e AMD a richiedere l'approvazione governativa prima di effettuare vendite all'estero, con l'obiettivo ...

#Hardware #LLM On-Premise #DevOps
2026-02-28 DigiTimes

Fitipower punta su AI ed edge computing per una crescita nel 2024

Il produttore taiwanese Fitipower prevede una crescita nel 2024, grazie alla crescente domanda di chip per applicazioni di intelligenza artificiale (AI) e edge computing. L'azienda punta a consolidare la propria posizione in questi settori in espansi...

#LLM On-Premise #DevOps
2026-02-28 DigiTimes

Phison passa ai pagamenti anticipati per l'impennata dei prezzi NAND

Il produttore di controller Phison sta passando a un modello di pagamenti anticipati a causa dell'aumento del 500% dei prezzi delle memorie NAND. Questa mossa strategica mira a garantire la fornitura e mitigare l'impatto della volatilità del mercato.

#Hardware #LLM On-Premise #DevOps
2026-02-28 Phoronix

AMD prepara miglioramenti IBS per Zen 6 in Linux

AMD sta preparando il terreno per l'integrazione dei suoi processori Zen 6 di prossima generazione nell'ecosistema Linux. Una serie di patch, destinate al sottosistema perf di Linux, sono state accodate per l'inclusione nel kernel Linux 7.1. Queste p...

#Hardware #LLM On-Premise #DevOps
2026-02-28 Tom's Hardware

AMD Ryzen 7 9850X3D vs Intel Core i9-14900K: duello di processori nel 2026

Un confronto tra i processori AMD Ryzen 7 9850X3D e Intel Core i9-14900K suggerisce che la piattaforma Raptor Lake di Intel potrebbe rimanere competitiva anche nel 2026. L'articolo analizza le potenziali performance e il posizionamento di mercato di ...

#Hardware #LLM On-Premise #DevOps
2026-02-27 Tom's Hardware

Processori Intel: incrementi di performance fino a 95x in due decenni

Intel ha confrontato le performance dei suoi processori mobile, evidenziando un incremento fino a 95 volte nell'arco di vent'anni. Il confronto è stato effettuato tra l'architettura Penryn a 45nm e la futura architettura Panther Lake a 18A.

#Hardware #LLM On-Premise #DevOps
2026-02-27 DigiTimes

Quanta prevede crescita guidata dall'AI dopo profitti record nel 2025

Il produttore taiwanese Quanta Computer prevede una forte crescita nel 2026, trainata dall'intelligenza artificiale. Dopo aver registrato profitti record nel 2025, l'azienda punta a espandere le proprie capacità nel settore AI per sostenere l'ulterio...

#LLM On-Premise #DevOps
2026-02-27 The Register AI

Lovable: falle di sicurezza espongono dati di 18.000 utenti

La piattaforma Lovable è al centro di una controversia per presunte vulnerabilità nelle applicazioni ospitate. Un ricercatore afferma che le falle di sicurezza hanno esposto i dati di circa 18.000 utenti, sollevando interrogativi sulla responsabilità...

#LLM On-Premise #DevOps
2026-02-27 The Register AI

Data center: domanda di 50 GW in coda per l'accesso alla rete UK

Circa 140 data center sono in attesa di essere connessi alla rete elettrica britannica. La loro richiesta combinata di energia supera l'attuale picco di consumo elettrico dell'intero Regno Unito, pari a 45 GW quest'anno. Questo evidenzia le sfide inf...

#LLM On-Premise #DevOps
2026-02-27 Tom's Hardware

Imec accelera la produzione di chip EUV con un nuovo metodo

Imec ha sviluppato una nuova tecnica di cottura post-esposizione (post-exposure bake) che incrementa la produzione di chip EUV (Extreme Ultraviolet lithography). L'aumento della concentrazione di ossigeno migliora del 20% la resa del fotoresist, otti...

2026-02-27 Phoronix

AMD: Aggiornamenti ai driver Ryzen AI per Linux 7.0-rc2

Sono stati rilasciati gli aggiornamenti ai driver DRM/accel di AMD in preparazione per il rilascio del kernel Linux 7.0-rc2. Questi aggiornamenti mirano a risolvere problemi e migliorare la stabilità dei driver AMD Ryzen AI.

#Hardware #LLM On-Premise #DevOps
2026-02-27 AI News

ASML: via libera alla produzione di chip AI di nuova generazione

ASML ha annunciato che i suoi strumenti High-NA EUV sono pronti per la produzione di massa. Questa svolta, attesa da tempo, consentirà ai produttori di chip di realizzare circuiti più densi e potenti, aprendo la strada a una nuova generazione di chip...

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Wiwynn: prodotti AI superano il 50% delle vendite nel 2025

Secondo Digitimes, Wiwynn prevede che i prodotti legati all'intelligenza artificiale supereranno il 50% del suo fatturato totale entro il 2025. L'azienda stima inoltre un raddoppio dei ricavi e dei profitti grazie alla crescente domanda nel settore A...

#Hardware #Fine-Tuning
2026-02-26 DigiTimes

Yageo prevede un ottimo 1Q26 grazie agli ordini AI

Il produttore di componenti Yageo prevede una forte crescita nel primo trimestre del 2026, trainata dalla domanda nel settore dell'intelligenza artificiale. La società non prevede, per il momento, un impatto significativo della carenza di memorie sul...

#Hardware #LLM On-Premise #DevOps
2026-02-26 The Register AI

Hyperscaler: investimenti AI supereranno il PIL irlandese nel 2026

Secondo TrendForce, i principali fornitori di servizi cloud incrementeranno significativamente gli investimenti in server e infrastrutture dedicate all'intelligenza artificiale. Si prevede che otto hyperscaler spenderanno complessivamente 710 miliard...

#LLM On-Premise #DevOps
2026-02-26 Phoronix

NXP rilascia driver Linux per acceleratore Neutron NPU

NXP ha rilasciato un nuovo driver open-source per il kernel Linux, progettato per supportare la propria unità di elaborazione neurale (NPU) Neutron. Questo sviluppo facilita l'integrazione e l'utilizzo dell'acceleratore AI in ambienti Linux.

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Boom dei server AI spinge la domanda di MOSFET ad alta tensione

L'aumento della domanda di server dedicati all'intelligenza artificiale sta avendo un impatto significativo sui produttori di componenti. APEC, azienda taiwanese specializzata in dispositivi di alimentazione, sta beneficiando di una maggiore richiest...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-26 DigiTimes

WinWay punta a nuovi record nel 2025 grazie all'AI, espansione a Kaohsiung

WinWay prevede una forte crescita guidata dalla domanda di soluzioni AI, puntando a risultati record nel 2025. L'azienda sta pianificando un'espansione a Kaohsiung per aumentare la propria capacità produttiva e soddisfare la crescente richiesta del m...

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

Nvidia in Cina: concorrenza locale in crescita nel mercato AI

Le restrizioni all'export di Nvidia in Cina spingono i produttori locali di AI a rafforzare la propria posizione sul mercato. Questo scenario potrebbe accelerare lo sviluppo di alternative nazionali per l'inference e il training di modelli di linguag...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-26 ArXiv cs.LG

Compilazione di Contesto Latente: memoria compatta per LLM

Un nuovo framework, Latent Context Compilation, affronta le sfide del deployment di LLM con contesti lunghi. Utilizzando un modulo LoRA usa e getta come compilatore, il sistema distilla contesti estesi in token buffer compatti e portabili, compatibil...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-26 DigiTimes

King Slide prevede boom di domanda per guide server GenAI

Il produttore di guide per server King Slide prevede un aumento significativo della domanda, spinto dalla crescente densità dei server necessari per i carichi di lavoro di GenAI. Questo trend potrebbe portare a una riorganizzazione delle catene di fo...

#Hardware #Fine-Tuning
2026-02-26 DigiTimes

Yageo: boom degli utili grazie all'AI nel Q4 2025

Il produttore di componenti Yageo ha annunciato un aumento degli utili dell'82% nel quarto trimestre del 2025, trainato dalla crescente domanda di prodotti legati all'intelligenza artificiale. La società prevede una crescita continua grazie all'espan...

2026-02-26 DigiTimes

Team Group e Apacer: profitti record grazie alla domanda di memorie AI

I produttori di memorie Team Group e Apacer registrano profitti record, spinti dall'aumento della domanda di DRAM e NAND per applicazioni di intelligenza artificiale. L'incremento dei prezzi delle memorie è un fattore chiave in questo successo.

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

DeepSeek V4: sfida a Nvidia e AMD sullo sfondo delle tensioni USA-Cina

DeepSeek, azienda cinese specializzata in intelligenza artificiale, lancia la versione V4 del suo modello, escludendo fornitori occidentali come Nvidia e AMD. La decisione è legata alle crescenti tensioni geopolitiche tra Stati Uniti e Cina nel setto...

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Ritorno ai wafer da 8 pollici grazie all'AI nel cloud

La crescente domanda di intelligenza artificiale nel cloud sta inaspettatamente rivitalizzando la produzione di wafer da 8 pollici. Questo fenomeno, riportato da DIGITIMES, evidenzia come le esigenze dell'AI stiano influenzando l'intera filiera dei s...

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

Samsung accelera la produzione del Galaxy S26 nonostante le sfide sui chip

Nonostante le persistenti difficoltà nel settore dei semiconduttori, Samsung sembra intenzionata ad aumentare la produzione del suo prossimo smartphone di punta, il Galaxy S26. La decisione riflette la fiducia dell'azienda nel mercato e la volontà di...

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

Nvidia GTC 2026: focus su chip misterioso, fotonica e limiti energetici

Il prossimo Nvidia GTC nel 2026 promette di svelare nuove tecnicie, tra cui un chip ancora avvolto nel mistero, progressi nella fotonica del silicio e soluzioni per affrontare le crescenti sfide legate ai consumi energetici nell'ambito dell'intellige...

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Il misterioso chip di Nvidia: memoria impilata sulla GPU?

Indiscrezioni suggeriscono che Nvidia potrebbe presentare un nuovo chip con architettura 3D IC, integrando la memoria direttamente sulla GPU. Questa soluzione promette di migliorare le prestazioni e ridurre la latenza, ma i dettagli restano scarsi in...

#Hardware
2026-02-26 DigiTimes

Tensioni USA-Cina: Taiwan al centro della filiera AI americana

Le crescenti tensioni commerciali tra Stati Uniti e Cina stanno ridefinendo le catene di approvvigionamento globali nel settore dell'intelligenza artificiale. Taiwan emerge come un nodo cruciale per l'America, data la sua posizione strategica nella p...

#LLM On-Premise #DevOps
2026-02-26 ServeTheHome

NVIDIA: Ricavi record da Data Center e ProViz nel Q4 2026

NVIDIA ha annunciato i risultati finanziari per il quarto trimestre dell'anno fiscale 2026, evidenziando una crescita significativa dei ricavi, trainata principalmente dai settori Data Center e ProViz. I ricavi GAAP hanno raggiunto i 68 miliardi di d...

#Hardware #LLM On-Premise #DevOps
2026-02-26 Tom's Hardware

Nvidia: primi sample di GPU Vera Rubin con HBM4

Nvidia ha iniziato a distribuire i primi sample della GPU Vera Rubin, caratterizzata da 88 core CPU e memorie HBM4 da 288 GB. Questa nuova architettura punta a migliorare le prestazioni per carichi di lavoro di intelligenza artificiale.

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Nvidia spedisce i primi sample Vera Rubin: CPU al centro dell'AI

Nvidia ha iniziato la spedizione dei primi sample di Vera Rubin, posizionando la CPU Vera come elemento centrale nella prossima generazione di architetture per l'intelligenza artificiale. Questa mossa strategica sottolinea l'importanza di un approcci...

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Nvidia rassicura il mercato AI con risultati trimestrali solidi

I risultati finanziari di Nvidia hanno superato le aspettative, alimentando l'ottimismo nel settore dell'intelligenza artificiale. La guidance futura, particolarmente robusta, suggerisce una domanda sostenuta per le GPU di Nvidia, essenziali per il t...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-26 DigiTimes

Nvidia punta sulla monetizzazione dell'AI per sostenere la spesa dei CSP

Nvidia prevede che la monetizzazione delle applicazioni di intelligenza artificiale continuerà a guidare gli investimenti dei cloud service provider (CSP). Questa strategia si basa sulla crescente domanda di risorse computazionali per l'addestramento...

#Hardware #LLM On-Premise #DevOps
2026-02-26 DigiTimes

Qualcomm spedisce sistemi AI rack-scale basati su chip AI 100 del 2019

Qualcomm ha iniziato la spedizione di sistemi AI a livello di rack basati sul suo chip AI 100, introdotto nel 2019. Un analista evidenzia barriere strutturali all'adozione su larga scala. La notizia è stata diffusa da Tareq Amin, CEO di Humain, su Li...

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

Infrastrutture AI: Musk accelera mentre Stargate è in fase di stallo

Mentre il progetto Stargate sembra affrontare ritardi, Elon Musk continua a investire massicciamente nell'infrastruttura per l'intelligenza artificiale. Questa mossa evidenzia la crescente importanza di un'infrastruttura robusta per supportare lo svi...

#Hardware #LLM On-Premise #DevOps
2026-02-25 Tom's Hardware

Micron entra nel mercato GDDR7 con moduli a 36 Gbps

Micron ha annunciato l'ingresso nel mercato delle memorie GDDR7 con moduli che raggiungono i 36 Gbps. Questa mossa la pone in competizione con Samsung e SK Hynix, sebbene queste ultime offrano già soluzioni con velocità superiori.

#Hardware #LLM On-Premise #DevOps
2026-02-25 Anthropic News

Anthropic acquisisce Vercept per migliorare le capacità di Claude

Anthropic ha annunciato l'acquisizione di Vercept, mossa strategica per potenziare le capacità di Claude nell'utilizzo del computer. L'integrazione mira a migliorare l'interazione e l'efficacia del modello in scenari applicativi complessi.

#LLM On-Premise #DevOps
2026-02-25 Tom's Hardware

Meta e AMD: accordo da 100 miliardi di dollari per GPU e AI

Meta investe massicciamente in AMD per accelerare la propria strategia di calcolo per l'intelligenza artificiale. L'accordo, del valore di 100 miliardi di dollari, prevede che AMD ceda parte della proprietà in cambio di ordini di GPU. Meta mantiene u...

#Hardware #LLM On-Premise #DevOps
2026-02-25 Tom's Hardware

Nvidia H200: Nessuna vendita in Cina nonostante l'approvazione USA

A quasi tre mesi dall'approvazione della Casa Bianca, Nvidia non ha ancora effettuato consegne di GPU H200 in Cina. Un funzionario del Dipartimento del Commercio USA ha confermato che non sono state approvate vendite durante un'audizione alla Camera.

#Hardware #LLM On-Premise #DevOps
2026-02-25 Tom's Hardware

SambaNova presenta un nuovo acceleratore AI e collabora con Intel

SambaNova ha annunciato il suo nuovo acceleratore AI SN50, sostenendo una efficienza tre volte superiore rispetto alla Nvidia B200. L'azienda collabora con Intel per l'utilizzo di CPU Xeon per carichi di lavoro di inference e agenti.

#Hardware #LLM On-Premise #DevOps
2026-02-25 DigiTimes

Taiwan potenzia il settore OSAT: cambio di strategia

Il settore OSAT (Outsourced Semiconductor Assembly and Test) di Taiwan sta cambiando strategia. L'articolo analizza le dinamiche di questo cambiamento, con un focus sulle implicazioni per l'industria dei semiconduttori. Le aziende taiwanesi si adatta...

2026-02-25 DigiTimes

Unimicron nomina SC Chien (UMC) alla presidenza, cambio di strategia

Unimicron, produttore di substrati per semiconduttori, ha annunciato la nomina di SC Chien (già in UMC) alla presidenza. La mossa indica un potenziale cambio di strategia aziendale, con implicazioni ancora da definire per il settore dei semiconduttor...

2026-02-25 DigiTimes

Cina punta a quintuplicare la produzione di chip avanzati per l'AI

La Cina mira a incrementare di cinque volte la produzione interna di chip avanzati. Questa mossa strategica è pensata per sostenere l'espansione dell'intelligenza artificiale nel paese, riducendo la dipendenza da fornitori esteri e rafforzando la pro...

#LLM On-Premise #DevOps
2026-02-25 DigiTimes

Impennata della domanda AI: prezzi MLCC in aumento

L'incremento della domanda di applicazioni di intelligenza artificiale sta portando a una saturazione della capacità produttiva dei condensatori ceramici multistrato (MLCC), con conseguente aumento dei prezzi. Questa situazione impatta direttamente s...

#LLM On-Premise #DevOps
2026-02-25 DigiTimes

Taalas sfida Nvidia con Llama cablato in silicio: 17.000 token/secondo

L'azienda Taalas annuncia un'architettura hardware dedicata all'esecuzione del modello Llama, raggiungendo una velocità di 17.000 token al secondo. Questa soluzione proprietaria si propone come alternativa alle GPU tradizionali per carichi di lavoro ...

#Hardware #LLM On-Premise #DevOps
2026-02-24 Tom's Hardware

Le GPU Nvidia GB10/GB10X in arrivo sui portatili Dell e Lenovo nel 2026?

Indiscrezioni suggeriscono che le nuove GPU Nvidia GB10 e GB10X (nome in codice) potrebbero debuttare nella prima metà del 2026, trovando spazio nei portatili di Dell e Lenovo. Queste GPU sono molto attese per le loro potenziali prestazioni e efficie...

#Hardware #LLM On-Premise #DevOps
2026-02-24 Phoronix

Google Axion vs. Intel Xeon vs. AMD EPYC: Benchmark N4 su Google Cloud

Google Cloud ha lanciato la serie N4A basata su processori Axion ARM64. I benchmark iniziali confrontano le prestazioni di N4A con le istanze AMD EPYC e Intel Xeon N4. L'analisi si concentra sui guadagni prestazionali rispetto alle generazioni preced...

#Hardware #LLM On-Premise #DevOps
2026-02-24 The Next Web

Nvidia: i risultati del Q4 cruciali per il mercato hardware AI

I risultati del quarto trimestre di Nvidia sono attesi con grande attenzione, poiché potrebbero influenzare significativamente la fiducia nel mercato dell'hardware per l'intelligenza artificiale. La posizione dominante di Nvidia nel settore, con le s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-24 Tom's Hardware

ASML: svolta nella litografia EUV, velocità +50% entro il 2030

ASML annuncia un importante avanzamento nella tecnicia di litografia EUV, con l'obiettivo di incrementare la velocità del 50% entro il 2030. La nuova sorgente luminosa da 1.000 watt utilizza tre laser per colpire 100.000 gocce di stagno al secondo, a...

2026-02-24 The Register AI

SambaNova sfida Nvidia con finanziamento da 350 milioni di dollari

SambaNova ha raccolto 350 milioni di dollari per la sua architettura dataflow, presentata come alternativa ai sistemi AI basati su GPU. L'obiettivo è competere con Nvidia, in particolare con la sua architettura B200, offrendo potenzialmente vantaggi ...

#Hardware #LLM On-Premise #DevOps
2026-02-24 DigiTimes

Accordo trilaterale sui chip: Giappone, Taiwan e India uniscono le forze

Un nuovo accordo trilaterale nel settore dei semiconduttori vede il Giappone investire capitali, Taiwan contribuire con il suo know-how tecnicico e l'India mettere a disposizione il suo vasto bacino di talenti. Questa collaborazione mira a rafforzare...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Materiali semiconduttori: specialisti superano i giganti a Taiwan

Un'analisi del mercato taiwanese dei materiali per semiconduttori rivela come le aziende specializzate stiano superando i grandi player del settore. Questo evidenzia l'importanza della specializzazione e dell'innovazione in un mercato altamente compe...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Infineon punta sui robot umanoidi e la crescita dei data center AI

Infineon espande il proprio raggio d'azione, puntando non solo sui data center AI, ma anche sul mercato emergente della robotica umanoide. La società prevede una crescita significativa in entrambi i settori, sfruttando le proprie competenze nell'elet...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Taiwan protegge le esportazioni chiave con nuove tariffe USA

Taiwan adotta misure per proteggere i propri vantaggi commerciali in risposta alle modifiche delle tariffe statunitensi. L'obiettivo è salvaguardare settori di esportazione cruciali per l'economia dell'isola, in un contesto di crescente incertezza ge...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Corsa all'IA in Cina: investimenti miliardari e modelli proprietari

La Cina è al centro di una competizione intensa nel campo dell'intelligenza artificiale, con ingenti capitali investiti nello sviluppo di modelli linguistici di grandi dimensioni (LLM) e infrastrutture di calcolo avanzate. La posta in gioco è alta, c...

#Hardware #LLM On-Premise #DevOps
2026-02-24 DigiTimes

ASML punta a +50% output chip con EUV da 1000W

ASML sta incrementando la potenza dei suoi sistemi EUV (Extreme Ultraviolet Lithography) a 1000W, con l'obiettivo di aumentare del 50% la produzione di chip entro il 2030. Questo progresso è cruciale per la fabbricazione di semiconduttori avanzati, e...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Meta acquista CPU Grace di Nvidia: Intel sotto pressione?

Secondo fonti di AFP, Meta ha deciso di acquistare separatamente le CPU Grace di Nvidia. Questa mossa potrebbe intensificare la competizione nel mercato dei processori, mettendo ulteriore pressione su Intel, già impegnata a competere con AMD e altri ...

#Hardware
2026-02-24 DigiTimes

Boom dei chip AI: CMAT di Taiwan al debutto nei test

La taiwanese CMAT si prepara a debuttare nel settore dei test per chip dedicati all'intelligenza artificiale. Questo ingresso avviene in un momento di forte espansione del mercato, con margini in crescita per i produttori di semiconduttori specializz...

#LLM On-Premise #DevOps
2026-02-23 Phoronix

Driver Grafico AMD: supera 6 milioni di linee di codice in Linux 7.0

Il driver open-source AMDGPU/AMDKFD ha superato i sei milioni di linee di codice C con il kernel Linux 7.0. Questo rappresenta un aumento significativo rispetto ai quattro milioni di linee di codice di soli quattro anni fa, evidenziando la crescente ...

#Hardware #LLM On-Premise #DevOps
2026-02-23 Tom's Hardware

Boom dell'AI: Taiwan supera la Cina nelle esportazioni verso gli USA

Le esportazioni da Taiwan verso gli Stati Uniti superano per la prima volta in decenni quelle dalla Cina, grazie a un aumento del 93.5% nelle esportazioni di sistemi avanzati. Questo incremento è trainato principalmente dalla forte domanda di hardwar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-23 DigiTimes

Kioxia esaurisce la capacità NAND del 2026 per la domanda AI

Il produttore di memorie Kioxia ha venduto tutta la sua capacità di produzione di memorie NAND prevista per il 2026, a causa della forte domanda guidata dalle applicazioni di intelligenza artificiale. La notizia evidenzia le crescenti pressioni sulla...

#LLM On-Premise #DevOps
2026-02-23 DigiTimes

Samsung riconquista la leadership DRAM, punta su HBM4

Samsung ha registrato un aumento del 40% dei ricavi nel settore DRAM nel quarto trimestre del 2025, riconquistando la leadership di mercato. L'azienda punta ora sulla tecnicia HBM4 per consolidare ulteriormente la propria posizione competitiva nel se...

2026-02-23 DigiTimes

Polymatech punta a rafforzare la supply chain indiana dei semiconduttori

Eswara Rao Nandam, CEO di Polymatech Electronics, punta a consolidare la catena di approvvigionamento indiana nel settore dei semiconduttori. L'azienda si posiziona come un attore chiave in questo mercato strategico, con implicazioni significative pe...

#LLM On-Premise #DevOps
2026-02-23 DigiTimes

AMD supporta Crusoe con un prestito da 300 milioni di dollari

AMD replica la strategia di Nvidia supportando finanziariamente Crusoe, fornitore di soluzioni per il recupero di energia dai data center. L'operazione prevede un prestito di 300 milioni di dollari, segnalando un crescente interesse dei produttori di...

#Hardware #LLM On-Premise #DevOps
2026-02-22 Phoronix

Linux 7.0 si prepara per Intel Diamond Rapids con supporto driver NTB

Il kernel Linux si prepara per i processori Xeon Diamond Rapids di prossima generazione di Intel, successori di Granite Rapids. Il supporto driver è in gran parte definito, con l'aggiunta del supporto driver NTB nel kernel Linux 7.0.

#Hardware #LLM On-Premise #DevOps
2026-02-20 ArXiv cs.LG

MMCAformer: predizione del traffico con dati di veicoli connessi

Un nuovo modello, MMCAformer, integra dati macroscopici sul flusso di traffico con informazioni microscopiche sul comportamento di guida dei singoli veicoli connessi per migliorare la precisione nella predizione della velocità del traffico. L'approcc...

2026-02-20 DigiTimes

Corsa all'IA: infrastrutture potenziate da fornitori taiwanesi

La crescente domanda di infrastrutture per l'intelligenza artificiale sta alimentando una competizione globale, con un impatto significativo sui fornitori di chip e server con sede a Taiwan. L'articolo analizza come questa dinamica stia influenzando ...

#LLM On-Premise #DevOps
2026-02-20 DigiTimes

I colossi tech puntano sull'AI fisica nell'era GenAI

Le grandi aziende tecniciche stanno investendo sempre più in infrastrutture fisiche per l'intelligenza artificiale generativa. Questa tendenza riflette la crescente importanza di hardware specializzato e stack locali per gestire i carichi di lavoro A...

#Hardware #LLM On-Premise #DevOps
2026-02-19 Tom's Hardware

GPU AMD come garanzia per un prestito da 300 milioni di dollari

Una startup cloud utilizzerà GPU AMD Instinct in un datacenter in Ohio, ottenendo un prestito di 300 milioni di dollari garantito proprio dalle GPU. L'operazione evidenzia il valore crescente dell'hardware AI nel mercato.

#Hardware #LLM On-Premise #DevOps
2026-02-19 Phoronix

AMD semplifica la portabilità di codice C++ su GPU con hipThreads

AMD ha annunciato hipThreads, una libreria di concorrenza in stile C++ per GPU AMD, progettata per semplificare la portabilità del codice C++. Questa nuova aggiunta all'ecosistema ROCm/HIP mira a rendere più agevole lo sviluppo di applicazioni ad alt...

#Hardware #LLM On-Premise #DevOps
2026-02-19 Tom's Hardware

La Cina accelera il raffreddamento a liquido per i server AI

L'espansione dell'intelligenza artificiale in Cina sta spingendo i fornitori nazionali ad adottare rapidamente sistemi di raffreddamento a liquido per i server, a causa delle crescenti esigenze di dissipazione termica dei cluster di calcolo intensivi...

#LLM On-Premise #DevOps
2026-02-19 Phoronix

Simdjson: parsing JSON ancora più veloce con SIMD, +30% di boost

Il progetto open-source Simdjson, focalizzato sul parsing ad alte prestazioni di file JSON tramite istruzioni SIMD, ha annunciato la versione 4.3. Questo aggiornamento introduce ulteriori ottimizzazioni SIMD, incrementando ulteriormente la velocità d...

#LLM On-Premise #DevOps
2026-02-19 LocalLLaMA

Scalare le GPU oltre i limiti della scheda madre: guida

Un utente sta pianificando un server AI con otto GPU, ma le schede madri disponibili hanno un numero limitato di slot PCIe. La discussione esplora l'uso di riser e altre soluzioni per superare queste limitazioni hardware, consentendo di collegare più...

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Supply chain server AI: PCB e CCL in testa, ASIC e test divergono

La supply chain dei server AI mostra dinamiche contrastanti. Mentre i produttori di PCB (Printed Circuit Board) e CCL (Copper Clad Laminate) guidano il mercato, si osservano divergenze nella produzione di ASIC e nelle procedure di testing. Un'analisi...

#LLM On-Premise #DevOps
2026-02-18 Tom's Hardware

Hyperscaler AI puntano all'uranio per alimentare i data center del futuro

I principali fornitori di servizi AI stanno stringendo accordi con compagnie minerarie per assicurarsi forniture a lungo termine di uranio. L'obiettivo è alimentare i futuri data center con energia nucleare, in un contesto di crescente domanda energe...

#LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Gemini di Google ora genera musica da testo, immagini e video

L'app Gemini di Google si espande: ora gli utenti possono generare musica a partire da input testuali, immagini e video. Questa nuova funzionalità apre nuove frontiere creative, consentendo di trasformare contenuti visivi e scritti in composizioni mu...

#LLM On-Premise #DevOps
2026-02-18 Tom's Hardware

Meta punta su CPU Nvidia Grace per produzione, in arrivo Vera

Meta prevede di implementare CPU Nvidia Grace standalone in produzione, con l'architettura Vera in arrivo. L'azienda stima miglioramenti fino a 2X nel rapporto performance/watt per alcuni carichi di lavoro CPU.

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Samsung spinge LPDDR5X-PIM: la memoria al centro dell'AI computing

Samsung sta sviluppando memorie LPDDR5X-PIM (Processing-in-Memory) per accelerare i carichi di lavoro di intelligenza artificiale. Questa tecnicia mira a ridurre i colli di bottiglia spostando parte dell'elaborazione direttamente all'interno del chip...

#LLM On-Premise #DevOps
2026-02-17 DigiTimes

Boom di fabbriche AI a Taiwan spinge costruzioni e speculazioni fondiarie

L'aumento della domanda di infrastrutture per l'intelligenza artificiale a Taiwan sta generando un'impennata nel settore delle costruzioni e nel mercato fondiario. La necessità di data center e fabbriche specializzate per ospitare carichi di lavoro A...

#LLM On-Premise #DevOps
2026-02-17 The Register AI

Meta punta sui processori Nvidia per l'AI su larga scala

Meta intensifica la collaborazione con Nvidia, integrando i processori Grace di Nvidia nei propri sistemi CPU-only. L'azienda prevede di implementare milioni di GPU nei prossimi anni e sta già lavorando all'adozione delle future CPU Vera di Nvidia a ...

#Hardware #LLM On-Premise #DevOps
2026-02-17 LocalLLaMA

Qwen3.5 NVFP4: Inference Quantizzata su NVIDIA Blackwell

È disponibile Qwen3.5 in versione NVFP4, quantizzato con NVIDIA Model Optimizer. Il checkpoint pesa circa 224GB con 17 miliardi di parametri attivi. La licenza è Apache 2.0. Richiede SGLang e offre esempi di lancio su B200/B300 e RTX PRO 6000.

#Hardware
2026-02-17 DigiTimes

Alibaba presenta Qwen 3.5: nuova frontiera per agenti AI multimodali

Alibaba ha annunciato Qwen 3.5, un modello di intelligenza artificiale multimodale. L'annuncio sottolinea i continui progressi nel campo degli agenti AI capaci di gestire input e output diversi, aprendo nuove possibilità per applicazioni avanzate.

#LLM On-Premise #DevOps
2026-02-16 TechCrunch AI

Nuove frontiere nell'AI: esplorando approcci radicalmente diversi

Ricercatori esplorano nuove direzioni nell'intelligenza artificiale, focalizzandosi su approcci radicalmente diversi e valutando compromessi alternativi rispetto alle metodologie consolidate. L'obiettivo è superare i limiti attuali e aprire nuove pro...

#LLM On-Premise #DevOps
2026-02-16 Tom's Hardware

Corsair AI Workstation 300: Strix Halo in un formato compatto

La Corsair AI Workstation 300 combina potenza e dimensioni ridotte, integrando il processore Strix Halo. Questo sistema si presenta come una soluzione elegante, sebbene con un prezzo non trascurabile. Ideale per chi cerca prestazioni elevate in un fo...

#LLM On-Premise #DevOps
2026-02-16 Tech.eu

The Fourth Law: nuovi finanziamenti per l'AI nei droni ucraini

La società di tecnicia per la difesa The Fourth Law (TFL), con sede a Kyiv, ha ottenuto nuovi finanziamenti per sviluppare ulteriormente soluzioni di AI e robotica per la difesa e la sicurezza pubblica, in particolare per droni autonomi impiegati in ...

2026-02-16 DigiTimes

Din dinamiche della supply chain AI: potenza, substrati e termica

DIGITIMES analizza le dinamiche della supply chain dell'intelligenza artificiale, con un focus particolare su potenza, substrati e soluzioni termiche. L'articolo evidenzia come questi elementi stiano guadagnando importanza nel contesto dello sviluppo...

#LLM On-Premise #DevOps
2026-02-16 LocalLLaMA

Addestramento AI: costi in calo del 40% annuo, grazie a hardware e algoritmi

Secondo Andrej Karpathy, il costo per addestrare modelli AI come GPT-2 si riduce del 40% ogni anno. I miglioramenti derivano da hardware più performante (H100), software ottimizzato (Flash Attention 3), algoritmi avanzati (Muon optimizer) e dati di a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-16 DigiTimes

Intel rilancia la sfida AI PC, focus su memorie ZAM e HBM

Intel intensifica la competizione nel settore AI PC, con un occhio di riguardo alle memorie ZAM. Cresce la sfida tra le tecnicie HBM3 e HBM4, cruciali per le prestazioni dei carichi di lavoro di intelligenza artificiale. Il mercato è in rapida evoluz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-15 Tech in Asia

La Cina punta sul raffreddamento a liquido per i data center AI

L'aumento delle temperature nei data center cinesi dedicati all'intelligenza artificiale spinge verso soluzioni di raffreddamento a liquido. La maggiore densità di potenza dei sistemi AI richiede metodi di dissipazione del calore più efficienti per g...

#Hardware
2026-02-15 LocalLLaMA

AdaLLM: Inference NVFP4 su RTX 4090 con cache FP8

AdaLLM è un nuovo runtime focalizzato sull'inference NVFP4 accelerata su GPU Ada Lovelace, come la RTX 4090. Implementa una cache KV FP8 e un kernel di decodifica FP8 personalizzato, evitando il fallback a FP16. Supporta modelli come Qwen3 e Gemma3, ...

#Hardware #LLM On-Premise #DevOps
2026-02-14 LocalLLaMA

Workstation LLM locale con 6 GPU: scalabilità e orchestrazione

Un utente di Reddit sta sperimentando una workstation locale dotata di 6 GPU (circa 200GB di VRAM) per l'esecuzione concorrente di modelli di ragionamento open-source. L'obiettivo è l'analisi di dati interni e l'automazione del flusso di lavoro. Si c...

#Hardware #LLM On-Premise #DevOps
2026-02-14 LocalLLaMA

NVIDIA Nemotron-3: pre-training FP4 e uscita prevista nel 2026

NVIDIA ha annunciato che i modelli Nemotron-3 Super e Ultra sono in fase di pre-training utilizzando la precisione FP4, sfruttando l'elevato throughput FP4 delle GPU NVIDIA. L'uscita dei modelli è prevista per la prima metà del 2026. Un aspetto inter...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-14 DigiTimes

Nvidia rafforza i legami con la Corea del Sud per le fabbriche intelligenti

Nvidia sta espandendo la sua collaborazione con la Corea del Sud nel settore delle fabbriche intelligenti. L'iniziativa mira a sfruttare le GPU Nvidia per ottimizzare i processi produttivi, migliorare l'automazione e ridurre i costi operativi. Questa...

#Hardware #LLM On-Premise #DevOps
2026-02-13 LocalLLaMA

Nvidia riduce i costi di inference LLM fino a 8 volte con DMS

Nvidia ha presentato Dynamic Memory Sparsification (DMS), una tecnica che ottimizza la gestione della cache KV negli LLM durante l'inference. DMS, tramite un segnale appreso di "keep or evict" per ogni token, riduce l'utilizzo della memoria fino a 8 ...

#Hardware #LLM On-Premise #DevOps
2026-01-26 DigiTimes

Pegatron prevede un boom dei server AI nel 2026

Il presidente di Pegatron prevede una forte crescita del mercato dei server AI a partire dal 2026. L'azienda punta a capitalizzare sull'aumento della domanda di infrastrutture per l'intelligenza artificiale.

#LLM On-Premise #DevOps
2026-01-26 DigiTimes

Innovazione nella memoria: opportunità per startup e PMI

La crescente domanda di capacità di memoria spinge l'innovazione nel settore. Startup e PMI si trovano di fronte a nuove opportunità per sviluppare soluzioni avanzate, essenziali per sostenere i carichi di lavoro di intelligenza artificiale e altre a...

#LLM On-Premise #DevOps
2026-01-26 DigiTimes

Applicazioni IT: potenziale adozione di OLED DDI, ma aggiornamenti lenti

Secondo DIGITIMES, le applicazioni IT mostrano un potenziale di adozione per i driver di display OLED (DDI). Tuttavia, il ritmo di aggiornamento rimane lento. L'articolo analizza le dinamiche del mercato e i fattori che influenzano l'adozione di ques...

#LLM On-Premise #DevOps
2026-01-26 DigiTimes

Foxconn leader nella produzione di server AI grazie ad Apple

Secondo DIGITIMES, Foxconn si conferma leader nella produzione di server per l'intelligenza artificiale, beneficiando anche della forte domanda da parte di Apple. La competizione nel settore rimane elevata, con altri produttori che cercano di guadagn...

#LLM On-Premise #DevOps
2026-01-26 DigiTimes

Efficienza energetica: chiave per il futuro del calcolo AI

L'efficienza nella trasmissione di potenza sta diventando un fattore critico per lo sviluppo dell'intelligenza artificiale e la competitività regionale. Ottimizzare il consumo energetico è essenziale per ridurre i costi operativi e l'impatto ambienta...

#Hardware #LLM On-Premise #DevOps
2026-01-26 DigiTimes

Pegatron prevede crescita a tripla cifra per i server AI nel 2026

Pegatron stima una crescita significativa nel mercato dei server AI entro il 2026, puntando anche sulle opportunità offerte dai chip ASIC. L'azienda si prepara ad espandere la propria presenza nel settore dell'intelligenza artificiale.

#Hardware #LLM On-Premise #DevOps
2026-01-26 DigiTimes

Pegatron punta su server AI e automotive per crescere

Pegatron, malgrado le sfide del mercato, punta a una crescita significativa nei settori dei server per intelligenza artificiale e dell'automotive. L'azienda taiwanese prevede di espandere la propria presenza in questi mercati strategici per compensar...

#LLM On-Premise #DevOps
2026-01-25 DigiTimes

Nvidia stringe i margini: inizia la guerra dei server ASIC

Secondo DIGITIMES, il mercato dei server basati su ASIC sta per entrare in una fase di competizione più intensa, con Nvidia che esercita pressione sui margini di profitto. Questo potrebbe portare a nuove dinamiche nel settore dell'hardware per l'inte...

#Hardware #LLM On-Premise #DevOps
2026-01-25 DigiTimes

Micro LED di Ennostar per raffreddare i server AI

Ennostar punta sui Micro LED per risolvere i problemi di surriscaldamento all'interno dei server AI. La tecnicia potrebbe migliorare l'efficienza e l'affidabilità dei sistemi di raffreddamento, cruciali per le prestazioni dei carichi di lavoro di int...

#Hardware #LLM On-Premise #DevOps
2026-01-25 LocalLLaMA

Modding estremo: RTX 4090 potenziata a 48 GB di memoria

Un appassionato ha pubblicato una guida dettagliata per aumentare la memoria di una RTX 4090 fino a 48 GB. La procedura, che richiede competenze avanzate di saldatura e conoscenza approfondita dell'hardware, è documentata in un video e suscita intere...

#Hardware
2026-01-25 DigiTimes

Nvidia cala in Cina: rivali locali guadagnano terreno nell'AI

La quota di mercato di Nvidia nel settore dei chip per l'intelligenza artificiale in Cina è scesa all'8%. I produttori cinesi stanno aumentando la produzione e guadagnando quote di mercato, erodendo il dominio precedentemente detenuto dall'azienda st...

#Hardware
2026-01-24 Phoronix

AMD rilascia MLIR-AIE 1.2 per Ryzen AI NPU

AMD ha rilasciato la versione 1.2 del toolchain MLIR-AIE, progettato per ottimizzare le prestazioni dei dispositivi Ryzen AI NPU. Questo aggiornamento, basato su LLVM e incentrato su MLIR, offre agli sviluppatori strumenti avanzati per sviluppare app...

#Hardware
2026-01-23 Tom's Hardware

Intel: azioni in calo, domanda superiore all'offerta fino al 2026

Le azioni di Intel sono crollate del 13% a seguito della pubblicazione degli ultimi risultati finanziari. Nonostante un miglioramento rispetto alle perdite precedenti e ingenti investimenti esterni, l'azienda prevede difficoltà di approvvigionamento ...

#Hardware
2026-01-23 DigiTimes

AcBel punta sui data center AI con alimentatori HVDC da 1 MW

AcBel ha annunciato il lancio di alimentatori HVDC (High Voltage Direct Current) da 1 MW, segnalando una mossa strategica verso i data center AI. L'azienda vede in questo settore un motore di crescita fondamentale. La decisione riflette la crescente ...

#Hardware
2026-01-22 Tom's Hardware

AMD ROCm: Trasformazione radicale per lo sviluppo di IA

AMD ha presentato al CES 2026 importanti aggiornamenti per ROCm, la sua piattaforma software. L'azienda punta ad abbattere le barriere nello sviluppo di applicazioni di intelligenza artificiale, rendendo ROCm uno strumento sempre più accessibile e pe...

#Hardware
2026-01-22 DigiTimes

SAS punta sui wafer da 12 pollici e sull'AI nei visori

Secondo Digitimes, SAS sta riorientando la propria strategia sui carburi di silicio (SiC), puntando su wafer da 12 pollici. L'azienda starebbe inoltre lavorando su visori con funzionalità di intelligenza artificiale. Questa mossa strategica potrebbe ...

2026-01-22 DigiTimes

Impennata prevista per le consegne di ASIC cloud nel 2026

Secondo un report di DIGITIMES, il mercato degli ASIC (Application-Specific Integrated Circuit) destinati al cloud è in forte crescita. Si prevede un'impennata delle consegne a partire dal 2026. La capacità di memoria rimane un fattore critico e un p...

#Hardware
2026-01-21 Phoronix

AMD prepara il terreno per i processori EPYC di nuova generazione

AMD ha inviato una serie di patch per il kernel Linux, anticipando nuove funzionalità dei processori EPYC di prossima generazione, nome in codice "Venice". Le patch riguardano miglioramenti a livello di gestione della memoria e sicurezza, indicando u...

#Hardware
2026-01-21 Tom's Hardware

V-Color Manta XFinity RGB DDR5-6400: Memorie da 128GB al Top?

Le V-Color Manta XFinity RGB DDR5-6400 si posizionano tra i kit di memoria da 128GB più veloci sul mercato. La domanda chiave è se mantengano le promesse in termini di prestazioni e se giustifichino l'investimento per gli utenti che necessitano di un...

2026-01-21 Tom's Hardware

Colossus 2 di xAI: la potenza reale è lontana dal gigawatt promesso

L'affermazione di Elon Musk riguardo alla capacità di 1 GW per il supercomputer Colossus 2 di xAI è stata messa in discussione. Analisi satellitari suggeriscono che la capacità di raffreddamento del sito indichi una potenza significativamente inferio...

2026-01-21 The Register AI

Trump promette permessi rapidi per data center nucleari

Donald Trump ha promesso di accelerare l'approvazione dei permessi per i data center alimentati da energia nucleare. Jensen Huang, CEO di Nvidia, ha presentato a Davos la sua visione dell'intelligenza artificiale.

#Hardware
2026-01-21 Phoronix

PyTorch 2.10: supporto migliorato per GPU AMD, Intel e NVIDIA

La nuova versione di PyTorch, la 2.10, continua a migliorare il supporto per le GPU Intel e per lo stack di calcolo AMD ROCm. Ulteriori ottimizzazioni sono state implementate anche per le GPU NVIDIA CUDA. Questo aggiornamento si concentra sull'ottimi...

#Hardware
2026-01-21 Tom's Hardware

Nvidia supera Apple: è il primo cliente di TSMC

Jensen Huang, CEO di Nvidia, ha confermato che la sua azienda ha superato Apple come principale cliente di TSMC. Nvidia torna così ad essere il cliente numero uno del produttore di chip, dopo oltre vent'anni. Questo sorpasso evidenzia la crescente im...

#Hardware
2026-01-21 MIT Technology Review

L'IA aumenterà la produttività senza sostituire i lavoratori

Un nuovo studio di Vanguard prevede che l'intelligenza artificiale (IA) avrà un impatto significativo sulla produttività, paragonabile a quello del personal computer. L'IA andrà ad aumentare le capacità umane piuttosto che sostituirle completamente, ...

2026-01-21 DigiTimes

Fortune Electric e Nan Ya puntano al mercato USA dei trasformatori

Fortune Electric e Nan Ya mirano a espandere la loro presenza nel mercato statunitense dei trasformatori, sfruttando l'urgente necessità di ammodernare l'infrastruttura di rete elettrica del paese. La domanda, spinta dal calcolo intensivo per l'intel...

2026-01-21 DigiTimes

Nvidia sfida Apple per la priorità di TSMC nella produzione di chip

Nvidia punta a scalzare Apple come cliente prioritario di TSMC, il colosso taiwanese della produzione di semiconduttori. La competizione per accaparrarsi le capacità produttive di TSMC si fa sempre più intensa, con importanti implicazioni per il futu...

#Hardware
2026-01-20 DigiTimes

Taiwan: tariffe elettriche scaglionate per i data center

Taiwan introduce tariffe elettriche differenziate per i data center, in risposta al crescente consumo energetico legato all'intelligenza artificiale. La mossa mira a incentivare l'efficienza energetica e a gestire meglio la domanda di elettricità, in...

2026-01-20 DigiTimes

Inventec raddoppia gli investimenti 2026 per i server IA

Inventec ha annunciato un raddoppio dei suoi investimenti di capitale previsti per il 2026, portandoli a 1 miliardo di dollari. La decisione è motivata dalle crescenti opportunità nel mercato dei server dedicati all'intelligenza artificiale (IA). L'a...

#Hardware
2026-01-20 DigiTimes

Server AI: boom per la supply chain di Taiwan previsto nel 2025

Si prevede che la domanda di server AI avrà un impatto significativo sulla supply chain di Taiwan nel 2025. I maggiori beneficiari saranno i produttori ODM/EMS, le aziende specializzate in sistemi di raffreddamento e i fornitori di componenti ottici....

#Hardware
2026-01-20 DigiTimes

CviLux capitalizza il boom dei server AI grazie ai connettori HVDC

CviLux beneficia della crescente domanda di server basati su intelligenza artificiale. La transizione verso sistemi di alimentazione HVDC (High Voltage Direct Current) nei data center sta generando nuove opportunità nel mercato dei connettori, con Cv...

2026-01-20 DigiTimes

Architetture server AI: connettori di alimentazione in forte crescita

L'evoluzione delle architetture di alimentazione dei server dedicati all'intelligenza artificiale sta generando una crescita significativa nel settore dei connettori di alimentazione. Questo sviluppo è trainato dalla crescente domanda di soluzioni di...

#Hardware
2026-01-19 LocalLLaMA

Crediti GPU gratuiti per testare piattaforma di training LLM

Un piccolo team offre crediti di calcolo gratuiti per la sua piattaforma GPU, in cambio di feedback sull'utilizzo. Le GPU disponibili includono RTX 5090 e Pro 6000, adatte per l'inferenza di modelli linguistici di grandi dimensioni (LLM), il fine-tun...

#Hardware #Fine-Tuning
2026-01-19 DigiTimes

Tesla accelera lo sviluppo di chip AI nonostante le sfide

Tesla sta intensificando gli sforzi nello sviluppo di chip per l'intelligenza artificiale. Questa mossa arriva in un momento cruciale, mentre l'azienda affronta sfide significative legate alla sicurezza e al software dei suoi veicoli. L'obiettivo è m...

2026-01-19 DigiTimes

TSMC punta a una rapida crescita del nodo a 2 nm nel 2026

Il gigante taiwanese TSMC prevede una forte espansione della produzione a 2 nm a partire dal 2026, sostenuta da ingenti investimenti e dall'ampliamento delle proprie capacità produttive sia a Taiwan che negli Stati Uniti. Questa mossa strategica mira...

← Torna ai Topic