Topic / Trend Rising

Domanda e Investimenti in Infrastrutture AI

La domanda di infrastrutture AI sta guidando investimenti significativi in data center, hardware e tecnicie correlate. Le aziende stanno espandendo la produzione, sviluppando chip personalizzati ed esplorando nuove soluzioni di raffreddamento per soddisfare le crescenti esigenze computazionali dell'AI.

Detected: 2026-02-06 · Updated: 2026-03-21

Articoli Correlati

2026-03-21 DigiTimes

SK Hynix punta a fabbriche autonome entro il 2030

Il produttore di memorie SK Hynix ha annunciato l'obiettivo di realizzare fabbriche di semiconduttori completamente autonome entro il 2030. Questa iniziativa mira a rispondere alle crescenti sfide produttive poste dall'intelligenza artificiale e dall...

#LLM On-Premise #DevOps
2026-03-20 Tom's Hardware

Softbank pianifica un data center da 10 GW in Ohio

Softbank progetta di costruire in Ohio un data center da 10 gigawatt, potenzialmente il più grande al mondo. L'infrastruttura richiederà una centrale a gas naturale da 33 miliardi di dollari, equivalente a nove reattori nucleari.

#LLM On-Premise #DevOps
2026-03-20 ServeTheHome

NVIDIA DGX Station: workstation GB300 e GB200 per AI desktop

NVIDIA rende disponibili le DGX Station basate su architettura Grace Blackwell, incluse le versioni GB300 e GB200. Queste workstation desktop portano la potenza di calcolo necessaria per l'AI direttamente sulla scrivania degli sviluppatori e dei rice...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-20 Tech.eu

Starling Bank lancia assistente finanziario con AI agentica

La challenger bank britannica Starling Bank introduce un assistente finanziario basato su AI agentica, integrato nella sua piattaforma. L'assistente, alimentato da Google Gemini e Google Cloud, automatizza attività bancarie, offre consigli personaliz...

2026-03-20 TechCrunch AI

Boom dell'AI: investimenti nel settore energetico in crescita

L'espansione dei data center AI è limitata dalla disponibilità di energia. Questo crea nuove opportunità di investimento nel settore delle tecnicie energetiche, essenziali per sostenere la crescente domanda computazionale.

#LLM On-Premise #DevOps
2026-03-20 DigiTimes

Nvidia e Uber collaborano su robotaxi a guida autonoma end-to-end

Nvidia e Uber uniscono le forze per sviluppare un sistema completo di guida autonoma destinato ai robotaxi. La partnership mira a creare una soluzione integrata, dall'elaborazione dei dati alla guida vera e propria, potenzialmente accelerando l'adozi...

#Hardware
2026-03-20 The Register AI

Meta: AI potenzia (di poco) la moderazione dei contenuti

Meta ha annunciato test interni sull'uso dell'AI per la moderazione dei contenuti. I risultati indicano un miglioramento rispetto alla moderazione umana, che in precedenza faticava a identificare pattern complessi.

#LLM On-Premise #DevOps
2026-03-20 DigiTimes

Server Nvidia Vera Rubin spingono la domanda di raffreddamento a liquido

I server Nvidia Vera Rubin, progettati per carichi di lavoro intensivi, stanno aumentando la richiesta di sistemi di raffreddamento a liquido. Questa tendenza è guidata dalla necessità di gestire l'elevata densità di potenza e il calore generato dai ...

#Hardware #LLM On-Premise #DevOps
2026-03-20 DigiTimes

Samsung anticipa novità nella memoria AI con HBM al meeting 2026

Samsung ha annunciato che presenterà le sue ultime innovazioni nella memoria HBM (High Bandwidth Memory) durante l'assemblea degli azionisti del 2026. Questa mossa indica un focus crescente sulle memorie ad alte prestazioni per applicazioni di intell...

#LLM On-Premise #DevOps
2026-03-20 DigiTimes

Alibaba e Baidu aumentano i prezzi AI: cambia l'economia del cloud

Alibaba e Baidu hanno incrementato i costi dei servizi di intelligenza artificiale. Questa mossa riflette un cambiamento nel modello economico del cloud, sempre più orientato al consumo di token. L'aumento dei prezzi potrebbe influenzare le strategie...

#LLM On-Premise #DevOps
2026-03-20 DigiTimes

Topco punta a crescita a doppia cifra nel 2026 grazie all'AI

Secondo DIGITIMES, Topco prevede una crescita significativa entro il 2026, trainata dall'adozione di soluzioni di intelligenza artificiale. L'azienda punta a espandere la propria presenza globale, capitalizzando sull'onda dell'AI per raggiungere obie...

2026-03-19 Wired AI

Nvidia GTC 2024: focus sull'AI, Tesla delude, Meta ripensa il VR

L'articolo analizza la conferenza annuale degli sviluppatori di Nvidia, con un focus sulle dichiarazioni del CEO Jensen Huang riguardo al futuro dell'azienda nel settore dell'intelligenza artificiale. Vengono inoltre toccati i temi della performance ...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Intel punta sul packaging avanzato per recuperare terreno nei foundry AI

Intel sta investendo nel packaging avanzato per competere nel mercato dei foundry per applicazioni di intelligenza artificiale. Questa mossa strategica mira a colmare il divario tecnicico e riconquistare quote di mercato nel settore in rapida crescit...

#Hardware #LLM On-Premise #DevOps
2026-03-19 ServeTheHome

NVIDIA Vera: CPU ad alte prestazioni per il mercato server AI

NVIDIA, nota per le sue GPU, continua a investire nel mercato delle CPU. Con la CPU Vera, l'azienda punta a espandere la propria presenza nel settore dei server dedicati all'intelligenza artificiale, diversificando ulteriormente il suo portafoglio pr...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia accosta Groq 3 LPU a Vera Rubin: era dell'inference?

Nvidia affianca le LPU Groq 3 a Vera Rubin, suggerendo un focus crescente sull'inference. La mossa potrebbe segnalare una nuova era nell'accelerazione hardware per carichi di lavoro di intelligenza artificiale, con implicazioni per deployment on-prem...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

GTC 2026: divario computazionale USA-Cina nell'AI in aumento

Secondo Digitimes, la conferenza GTC 2026 evidenzierà un crescente divario tra Stati Uniti e Cina in termini di capacità di calcolo per l'intelligenza artificiale. Questo divario potrebbe avere implicazioni significative per lo sviluppo e l'implement...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Taiwan investe in infrastrutture AI con capitali privati

Taiwan punta su investimenti privati per potenziare la propria infrastruttura di intelligenza artificiale. Questa strategia, ispirata al "Stargate playbook", mira a rafforzare le capacità computazionali necessarie per lo sviluppo e l'implementazione ...

#LLM On-Premise #DevOps
2026-03-19 DigiTimes

GTC 2026: La filiera AI di Taiwan si rafforza con Nvidia

Foxconn, Wiwynn, Advantech e BizLink consolidano le loro partnership con Nvidia durante il GTC 2026, segnalando una crescita significativa della filiera taiwanese nel settore dell'intelligenza artificiale. Questa collaborazione strategica mira a migl...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia standardizza il raffreddamento a liquido Vera Rubin

Nvidia ha presentato a GTC le specifiche standardizzate per il raffreddamento a liquido Vera Rubin, identificando quattro fornitori di cold plate. Questa mossa sottolinea l'importanza crescente del raffreddamento a liquido per i sistemi di calcolo ad...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Intel Xeon 6: CPU scelta per Nvidia DGX Rubin, punta all'inference AI

Il processore Intel Xeon 6 sarà integrato nella piattaforma Nvidia DGX Rubin. Questa mossa strategica posiziona Intel nel mercato dell'inference AI, offrendo una soluzione di calcolo ad alte prestazioni per carichi di lavoro complessi. La collaborazi...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

AMD e Samsung rafforzano la partnership sui chip AI con HBM4

AMD e Samsung intensificano la loro collaborazione nel settore dei chip per l'intelligenza artificiale. L'accordo prevede la fornitura di memorie HBM4 e discussioni sulla produzione di fonderia, elementi cruciali per lo sviluppo di soluzioni AI ad al...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

AI e memorie: mercato dei semiconduttori a 1 trilione nel 2026

Secondo DIGITIMES, la domanda di AI e memorie specializzate porterà il mercato dei semiconduttori a superare il trilione di dollari nel 2026. Questo aumento è trainato dalla necessità di hardware avanzato per gestire carichi di lavoro di intelligenza...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Micron: risultati finanziari record nel 2Q26 grazie alla domanda di AI

Secondo Digitimes, Micron ha annunciato risultati finanziari eccezionali per il secondo trimestre del 2026, trainati principalmente dalla forte domanda di soluzioni per l'intelligenza artificiale. Questo dato sottolinea il ruolo crescente dell'AI com...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-19 DigiTimes

Micron: risultati record nel FQ2 2026 grazie alla domanda di AI

Micron Technology prevede risultati finanziari superiori alle attese per il secondo trimestre del 2026, trainati dalla forte domanda di soluzioni di memoria ad alte prestazioni per applicazioni di intelligenza artificiale. L'azienda beneficia in part...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-19 DigiTimes

AMD rafforza la collaborazione con Naver per l'infrastruttura AI

AMD intensifica la partnership con Naver, colosso tecnicico sudcoreano, per espandere le infrastrutture dedicate all'intelligenza artificiale. Questa mossa strategica mira a capitalizzare la crescente domanda di soluzioni AI avanzate nel mercato asia...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia adotta Groq per l'inference AI ed espandere la portata globale

Nvidia stringe una partnership con Groq, segnalando un'espansione strategica nell'inference AI. Questa mossa potrebbe ampliare la presenza globale di Nvidia e affrontare le crescenti esigenze di calcolo per l'intelligenza artificiale.

#Hardware #LLM On-Premise #DevOps
2026-03-18 TechCrunch AI

Nvidia punta al networking: un business da 11 miliardi di dollari

Il settore networking di Nvidia ha generato 11 miliardi di dollari di fatturato nell'ultimo trimestre, superando le aspettative e ponendosi come un pilastro strategico accanto al core business delle GPU e del gaming. Questa crescita sottolinea l'impo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-18 LocalLLaMA

Nvidia H200: server con 282GB di VRAM per carichi di lavoro AI

Un ingegnere ha ricevuto un server dotato di due GPU Nvidia H200 con un totale di 282GB di VRAM HBM3e. L'obiettivo è testare modelli LLM avanzati, con un focus sull'intelligenza del modello piuttosto che sulla velocità pura. L'utilizzo specifico sarà...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia punta ai chip AI di Groq per il mercato cinese: report

Secondo indiscrezioni, Nvidia starebbe valutando l'utilizzo dei chip AI di Groq per aggirare le restrizioni sull'export verso la Cina. Questa mossa strategica potrebbe consentire a Nvidia di mantenere la sua presenza nel mercato cinese, offrendo al c...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Samsung, Nvidia e Groq: sinergia per l'inference AI

Samsung collabora con Nvidia e Groq per ottimizzare le prestazioni nell'inference AI. La sinergia tra i tre colossi punta a migliorare l'efficienza e la velocità delle consegne nei carichi di lavoro di intelligenza artificiale, sfruttando le rispetti...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia: futuro dell'interconnessione tra rame e fibra ottica

Secondo Digitimes, Nvidia sta esplorando un futuro in cui le interconnessioni tra componenti hardware sfrutteranno sia il rame che la fibra ottica. Questa strategia potrebbe avere implicazioni significative per le architetture di calcolo ad alte pres...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

GTC 2026: Memoria, consumi e consegne sfidano l'infrastruttura AI

Secondo DIGITIMES, le crescenti richieste di memoria, i vincoli energetici e le complessità nelle consegne stanno ridefinendo le infrastrutture per l'intelligenza artificiale. Al GTC 2026, questi fattori saranno centrali per lo sviluppo e l'adozione ...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia H200: via libera in Cina e riavvio della produzione

Nvidia ottiene l'approvazione e gli ordini per la GPU H200 in Cina, riavviando la produzione della supply chain. Questo sviluppo indica una forte domanda di soluzioni di calcolo ad alte prestazioni nel mercato cinese, nonostante le restrizioni normat...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Dreame punta sui chip: robotica oggi, data center AI in orbita domani

Il produttore Dreame ha annunciato un piano ambizioso per lo sviluppo di cinque chip. L'azienda, nota per le soluzioni di robotica, punta ora a espandere il proprio raggio d'azione verso i data center AI, con una visione a lungo termine che include a...

#Hardware
2026-03-18 DigiTimes

Sugon sfida Nvidia con fabric AI 400G per data center

Il produttore cinese di server Sugon ha presentato una nuova soluzione di interconnessione per data center AI, con velocità fino a 400G. Questa tecnicia mira a competere con le soluzioni InfiniBand di Nvidia, offrendo un'alternativa per le infrastrut...

#Hardware
2026-03-18 DigiTimes

Boom dell'ottica per data center AI spinge Ezconn: ordini fino al 3Q26

La forte domanda di soluzioni ottiche per data center AI sta beneficiando Ezconn, con ordini previsti fino al terzo trimestre del 2026 e margini di profitto superiori al 50%. Questo riflette la crescita degli investimenti in infrastrutture per l'inte...

#LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Vera Rubin POD: supercomputer AI da 60 exaflop basato su sette chip

Nvidia presenta Vera Rubin POD, un supercomputer AI da 60 exaflop alimentato da sette chip Rubin. La soluzione, alloggiata in 40 rack, rappresenta un'infrastruttura di calcolo avanzata per carichi di lavoro di intelligenza artificiale complessi.

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Rubin Ultra: la prima GPU AI con 1TB di HBM4E

Nvidia ha presentato Rubin Ultra, la prima GPU AI al mondo dotata di 1TB di memoria HBM4E. I nuovi chip saranno integrati nei rack Kyber, aprendo nuove frontiere per le prestazioni nell'inference e nel training di modelli di grandi dimensioni. Questa...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 AI News

Goldman Sachs: investimenti AI si spostano verso i data center

Goldman Sachs prevede una crescita degli investimenti nelle infrastrutture per l'AI, con un focus sui data center e sull'hardware di calcolo. La domanda di potenza di calcolo per il training e l'inference dei modelli sta rimodellando il mercato dei d...

#Hardware #Fine-Tuning #DevOps
2026-03-17 DigiTimes

Nvidia GTC 2026: mercato inference a 1 trilione, LPU da Samsung

Secondo Digitimes, durante il GTC 2026, Jensen Huang ha previsto un mercato dell'inference AI da 1 trilione di dollari. Nvidia starebbe collaborando con Samsung per la produzione di una nuova LPU (Logic Processing Unit). L'annuncio sottolinea la cres...

#Hardware #LLM On-Premise #DevOps
2026-03-16 TechCrunch AI

Nvidia prevede ordini per Blackwell e Vera Rubin da 1 trilione di dollari

Jensen Huang, CEO di Nvidia, stima che gli ordini per le nuove architetture Blackwell e Vera Rubin raggiungeranno il valore di 1 trilione di dollari. Questa previsione sottolinea la forte domanda di acceleratori di calcolo per carichi di lavoro di in...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia prevede vendite hardware AI per 1 trilione di dollari entro il 2027

Il CEO di Nvidia, Jensen Huang, stima che l'azienda venderà hardware per l'intelligenza artificiale per un valore di 1 trilione di dollari entro il 2027. Questa previsione riflette la crescente domanda di capacità di calcolo per supportare lo svilupp...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia Vera Rubin: potenza di calcolo AI 25x H100 per data center orbitali

Nvidia presenta il modulo Vera Rubin, pensato per l'elaborazione di dati in orbita. Offre una capacità di calcolo AI fino a 25 volte superiore rispetto a una GPU H100, aprendo nuove frontiere nell'analisi spaziale e nell'inference a bassa latenza dir...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Intel Xeon 6: CPU per i sistemi Nvidia DGX Rubin NVL8

Intel si aggiudica un contratto significativo: i processori Xeon 6 saranno utilizzati nei sistemi Nvidia DGX Rubin NVL8. Questa mossa avviene mentre Nvidia entra nel mercato dei processori per data center con le CPU Vera.

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia GTC 2026: Huang svela il futuro della tecnicia

Jensen Huang ha aperto la GTC 2026 a San Jose, presentando le ultime novità di Nvidia. L'evento promette di svelare le prossime frontiere della tecnicia, con un focus su GPU, IA e calcolo accelerato. Si attendono annunci su nuove architetture hardwar...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Roadmap di Intel: processori 14A, Nova Lake, Diamond Rapids e acceleratori AI

Intel prosegue nello sviluppo di nuove architetture hardware, con un focus particolare sui processori 14A, Nova Lake e Diamond Rapids. L'azienda punta anche a rafforzare la propria offerta di acceleratori dedicati all'intelligenza artificiale, in un ...

#Hardware #LLM On-Premise #DevOps
2026-03-16 The Next Web

Meta investe fino a 27 miliardi in Nebius per infrastruttura AI

Meta ha siglato un accordo quinquennale con Nebius Group, operatore neocloud olandese, per un investimento fino a 27 miliardi di dollari in infrastruttura AI. L'accordo prevede uno dei primi deployment su larga scala dei nuovi chip Vera Rubin di Nvid...

#Hardware #LLM On-Premise #DevOps
2026-03-16 AI News

NTT DATA e NVIDIA: fabbriche AI enterprise su scala di produzione

NTT DATA lancia piattaforme NVIDIA-powered per scalare l'AI, integrando GPU, networking ad alte prestazioni e software NVIDIA AI Enterprise (NeMo e NIM Microservices). L'obiettivo è standardizzare l'output e ridurre tempi/costi dal proof-of-concept a...

#Hardware #LLM On-Premise #DevOps
2026-03-16 DigiTimes

Global PMX espande la produzione di server AI in Vietnam

Il produttore taiwanese Global PMX incrementa la capacità produttiva di componenti per server AI e chip, aprendo un nuovo stabilimento in Vietnam. L'espansione mira a soddisfare la crescente domanda globale di infrastrutture per l'intelligenza artifi...

#Hardware
2026-03-16 The Register AI

India: AI per prevenire collisioni treni-elefanti

Il Ministero dell'Ambiente indiano sta valutando l'uso dell'intelligenza artificiale per ridurre la mortalità degli elefanti causata dai treni. L'iniziativa è parte di un workshop nazionale dedicato all'implementazione di politiche per la protezione ...

#LLM On-Premise #DevOps
2026-03-15 DigiTimes

Boom dei server AI: impatto su PCB, CCL e fornitori di interconnessioni

La crescente domanda di server dedicati all'intelligenza artificiale sta generando un'impennata nella richiesta di componenti specifici come PCB (Printed Circuit Boards), CCL (Copper Clad Laminates) e soluzioni di interconnessione avanzate. Questo tr...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Wistron: crescita record a gennaio grazie ai server AI

Il produttore taiwanese Wistron ha registrato un gennaio eccezionalmente positivo, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato evidenzia il crescente interesse del mercato per soluzioni hardware specializ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-06 DigiTimes

Cerebras raccoglie 1 miliardo di dollari, valutazione triplicata

Cerebras Systems ha annunciato un round di finanziamento che porta la sua valutazione a quasi il triplo in soli sei mesi. L'azienda si concentra sullo sviluppo di hardware specializzato per carichi di lavoro di intelligenza artificiale, in particolar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-06 DigiTimes

La Corea del Sud punta sull'AI: Nvidia fornisce oltre 260.000 GPU

La Corea del Sud sta investendo massicciamente nell'intelligenza artificiale, supportata da un'infrastruttura hardware potenziata da oltre 260.000 GPU Nvidia. Questa mossa strategica mira a posizionare il paese come leader nel settore dell'AI, con un...

#Hardware
2026-02-05 TechCrunch AI

AWS: crescita record grazie alla domanda di AI

Amazon Web Services (AWS) ha registrato il trimestre con la crescita più alta degli ultimi 13 trimestri nel quarto trimestre del 2025. La forte domanda di servizi legati all'intelligenza artificiale ha contribuito in modo significativo a questo risul...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Jensen Huang: le fabbriche AI guideranno la reindustrializzazione

Secondo Jensen Huang, CEO di NVIDIA, le fabbriche di intelligenza artificiale rappresentano il motore di una nuova ondata di reindustrializzazione. Queste infrastrutture specializzate saranno fondamentali per lo sviluppo e l'implementazione di soluzi...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

A16z investe 1,7 miliardi di dollari in infrastrutture AI

Andreessen Horowitz ha stanziato 1,7 miliardi di dollari del suo nuovo fondo da 15 miliardi per investimenti in infrastrutture AI. Il team si concentrerà su aziende come Black Forrest Labs, Cursor, OpenAI, ElevenLabs, Ideogram e Fal.

#LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

Positron sfida Nvidia con chip AI: round da 230 milioni di dollari

Positron ha raccolto 230 milioni di dollari in un round di finanziamento Serie B, con la partecipazione del Qatar Investment Authority. L'azienda punta a competere con Nvidia nel mercato dei chip per l'intelligenza artificiale, in un contesto di cres...

#Hardware
2026-02-04 DigiTimes

Nvidia detta i tempi per HBM4: Samsung e SK Hynix in competizione

La competizione per la produzione di memorie HBM4 si intensifica, con Nvidia che gioca un ruolo chiave nel definire le specifiche. Samsung e SK Hynix si contendono la leadership in questo settore cruciale per le future GPU e acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Forte domanda di server AI nel 2026, Vanguard Semiconductor ottimista

Vanguard International Semiconductor prevede una forte crescita della domanda di potenza per i server AI a partire dal 2026. La società si aspetta un impatto significativo sul mercato dei semiconduttori, con implicazioni per i produttori di hardware ...

#LLM On-Premise #DevOps
2026-02-04 DigiTimes

Penuria di memorie NOR Flash ad alta capacità: impatti sull'AI

L'aumento delle applicazioni di intelligenza artificiale sta intensificando la carenza di memorie NOR Flash ad alta capacità, in particolare le varianti SLC e MLC. Questa situazione potrebbe avere ripercussioni sulla produzione di dispositivi che ric...

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

L'AI ridefinisce l'alimentazione dei data center a livello di rack

I data center si stanno evolvendo per supportare i crescenti carichi di lavoro dell'intelligenza artificiale. Nuove architetture di alimentazione a livello di rack emergono per gestire al meglio le richieste energetiche delle GPU ad alte prestazioni,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 DigiTimes

xAI di SpaceX: implicazioni energetiche e IPO in forse

L'acquisizione di xAI da parte di SpaceX solleva interrogativi sulle future esigenze energetiche dei modelli di intelligenza artificiale e potrebbe influenzare i piani di offerta pubblica iniziale (IPO) dell'azienda aerospaziale. L'articolo evidenzia...

#LLM On-Premise #DevOps
2026-02-03 DigiTimes

Nvidia riprende il controllo del raffreddamento con AI CDU

Nvidia introduce AI CDU (Cooling Distribution Unit), segnalando un approccio software-defined alla gestione termica nei data center AI. Questo sviluppo potrebbe ottimizzare l'efficienza energetica e le performance dei sistemi di inference e training ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-02 Tom's Hardware

Huang (Nvidia): TSMC deve accelerare per soddisfare la domanda AI

Il CEO di Nvidia, Jensen Huang, avverte che TSMC, il principale produttore di chip, dovrà incrementare significativamente la sua capacità produttiva per tenere il passo con la crescente domanda di hardware per l'intelligenza artificiale. Huang preved...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Advantech unico vendor IPC al banchetto Nvidia: focus sull'edge AI

Advantech si distingue come unico fornitore di IPC invitato al banchetto di Nvidia, segnalando un crescente interesse verso soluzioni edge AI. Questa mossa sottolinea l'importanza dell'inference AI distribuita e delle capacità di calcolo locale per a...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Produttori taiwanesi di PCB puntano al mercato dei server AI nel 2026

I produttori taiwanesi di circuiti stampati (PCB) stanno investendo in nuove capacità produttive, previste per il 2026, per soddisfare la crescente domanda di server dedicati all'intelligenza artificiale. Questa mossa strategica mira a posizionare le...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

Micron aumenta gli investimenti in memorie in vista di HBM4

Micron sta incrementando i suoi investimenti globali nel settore delle memorie. Questa mossa strategica arriva in un momento cruciale, con Nvidia pronta a lanciare la sua nuova generazione di memorie HBM4, destinate a GPU ad alte prestazioni per cari...

#Hardware #LLM On-Premise #DevOps
2026-02-01 DigiTimes

I CSP aumentano il CapEx AI grazie alla supply chain più stabile

I cloud service provider (CSP) stanno incrementando gli investimenti in infrastrutture AI, grazie a una maggiore stabilità della supply chain. Questo aumento di CapEx è un indicatore della crescente domanda di risorse computazionali per l'intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-01-31 DigiTimes

Nvidia chiede a TSMC maggiore impegno per far fronte alla domanda del 2026

Il CEO di Nvidia sollecita TSMC ad aumentare la capacità produttiva per soddisfare la crescente domanda prevista per il 2026. L'azienda prevede di raddoppiare la capacità nei prossimi 10 anni, segno di una forte espansione nel settore dell'intelligen...

#Hardware #LLM On-Premise #DevOps
2026-01-30 DigiTimes

ASML beneficia della domanda EUV e investimenti USA nei chip

Il produttore di macchinari per semiconduttori ASML sta beneficiando della crescente domanda di litografia EUV (Extreme Ultraviolet) e degli investimenti statunitensi nel settore dei chip. La società olandese è un fornitore chiave per i produttori di...

#LLM On-Premise #DevOps
← Torna ai Topic