Topic / Trend Rising

Il Dominio di Nvidia e le Partnership Strategiche

Nvidia continua a rafforzare la sua posizione nel mercato dell'AI attraverso partnership strategiche e progressi tecnicici. L'azienda sta collaborando con vari attori del settore, dai produttori di chip alle aziende automobilistiche, per guidare l'innovazione ed espandere la sua portata.

Detected: 2026-03-21 · Updated: 2026-03-21

Articoli Correlati

2026-03-20 ServeTheHome

NVIDIA DGX Station: workstation GB300 e GB200 per AI desktop

NVIDIA rende disponibili le DGX Station basate su architettura Grace Blackwell, incluse le versioni GB300 e GB200. Queste workstation desktop portano la potenza di calcolo necessaria per l'AI direttamente sulla scrivania degli sviluppatori e dei rice...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-20 DigiTimes

Nvidia e Uber collaborano su robotaxi a guida autonoma end-to-end

Nvidia e Uber uniscono le forze per sviluppare un sistema completo di guida autonoma destinato ai robotaxi. La partnership mira a creare una soluzione integrata, dall'elaborazione dei dati alla guida vera e propria, potenzialmente accelerando l'adozi...

#Hardware
2026-03-20 DigiTimes

Nvidia punta su Groq come prossima Mellanox per l'inference?

Secondo Digitimes, Nvidia potrebbe considerare Groq un'acquisizione strategica, simile a Mellanox, per rafforzare la sua posizione nel mercato dell'inference AI. Groq si distingue per la sua architettura Tensor Streaming Processor (TSP) progettata pe...

#Hardware #LLM On-Premise #DevOps
2026-03-20 DigiTimes

Server Nvidia Vera Rubin spingono la domanda di raffreddamento a liquido

I server Nvidia Vera Rubin, progettati per carichi di lavoro intensivi, stanno aumentando la richiesta di sistemi di raffreddamento a liquido. Questa tendenza è guidata dalla necessità di gestire l'elevata densità di potenza e il calore generato dai ...

#Hardware #LLM On-Premise #DevOps
2026-03-20 DigiTimes

Volkswagen guarda ai chip cinesi, ridimensionando Nvidia

Volkswagen starebbe valutando di ridurre la dipendenza da Nvidia, orientandosi verso soluzioni di chip sviluppate in Cina. Questa mossa strategica riflette una crescente fiducia nelle capacità tecniciche cinesi e una potenziale diversificazione della...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Wired AI

Nvidia GTC 2024: focus sull'AI, Tesla delude, Meta ripensa il VR

L'articolo analizza la conferenza annuale degli sviluppatori di Nvidia, con un focus sulle dichiarazioni del CEO Jensen Huang riguardo al futuro dell'azienda nel settore dell'intelligenza artificiale. Vengono inoltre toccati i temi della performance ...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Tom's Hardware

Corsair 3200D: nuovo case mid-tower per airflow ottimizzato

Corsair presenta il case mid-tower 3200D, progettato per massimizzare il flusso d'aria e la compatibilità con schede madri di ultima generazione. Il design ottimizzato favorisce un raffreddamento efficiente dei componenti interni, migliorando le pres...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Intel punta sul packaging avanzato per recuperare terreno nei foundry AI

Intel sta investendo nel packaging avanzato per competere nel mercato dei foundry per applicazioni di intelligenza artificiale. Questa mossa strategica mira a colmare il divario tecnicico e riconquistare quote di mercato nel settore in rapida crescit...

#Hardware #LLM On-Premise #DevOps
2026-03-19 ServeTheHome

NVIDIA Vera: CPU ad alte prestazioni per il mercato server AI

NVIDIA, nota per le sue GPU, continua a investire nel mercato delle CPU. Con la CPU Vera, l'azienda punta a espandere la propria presenza nel settore dei server dedicati all'intelligenza artificiale, diversificando ulteriormente il suo portafoglio pr...

#Hardware #LLM On-Premise #DevOps
2026-03-19 The Register AI

Google offre ai publisher UK l'opt-out dagli AI Overviews

In risposta alle preoccupazioni sollevate dall'autorità garante della concorrenza del Regno Unito (CMA), Google ha annunciato che consentirà agli editori britannici di rinunciare alla inclusione dei loro contenuti negli AI Overviews, le sintesi gener...

#LLM On-Premise #DevOps
2026-03-19 Tom's Hardware

Thermalright: raffreddamento AIO con schermo panoramico a 165 dollari

Thermalright propone un sistema di raffreddamento a liquido all-in-one (AIO) per CPU con un display panoramico integrato. Il Wonder Vision 360 offre un'opzione estetica e funzionale per personalizzare il proprio PC, con uno sconto del 20% disponibile...

2026-03-19 AI News

NVIDIA: toolkit open source per agenti AI enterprise più sicuri

NVIDIA ha presentato un toolkit open source per semplificare lo sviluppo e il deployment di agenti AI autonomi in ambito enterprise. L'obiettivo è fornire alle aziende gli strumenti per controllare i dati e la responsabilità nell'utilizzo di questi a...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia accosta Groq 3 LPU a Vera Rubin: era dell'inference?

Nvidia affianca le LPU Groq 3 a Vera Rubin, suggerendo un focus crescente sull'inference. La mossa potrebbe segnalare una nuova era nell'accelerazione hardware per carichi di lavoro di intelligenza artificiale, con implicazioni per deployment on-prem...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia GTC 2026: Huang ribadisce l'impegno per Taiwan

Durante il GTC 2026, Nvidia ha ospitato una serata dedicata a Taiwan, con il CEO Jensen Huang che ha espresso il suo sostegno all'isola. L'evento sottolinea l'importanza di Taiwan per Nvidia e l'industria tecnicica globale.

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

GTC 2026: La filiera AI di Taiwan si rafforza con Nvidia

Foxconn, Wiwynn, Advantech e BizLink consolidano le loro partnership con Nvidia durante il GTC 2026, segnalando una crescita significativa della filiera taiwanese nel settore dell'intelligenza artificiale. Questa collaborazione strategica mira a migl...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Intel Xeon 6: CPU scelta per Nvidia DGX Rubin, punta all'inference AI

Il processore Intel Xeon 6 sarà integrato nella piattaforma Nvidia DGX Rubin. Questa mossa strategica posiziona Intel nel mercato dell'inference AI, offrendo una soluzione di calcolo ad alte prestazioni per carichi di lavoro complessi. La collaborazi...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Amazon Trainium 3: indiscrezioni contrastanti sui tempi di rilascio

Emergono voci contrastanti sul rilascio del chip Trainium 3 di Amazon. Mentre alcune fonti suggeriscono ritardi, i fornitori esprimono ottimismo. Il nuovo chip è destinato ad accelerare i carichi di lavoro di machine learning nel cloud AWS.

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-19 DigiTimes

AMD e Samsung rafforzano la partnership sui chip AI con HBM4

AMD e Samsung intensificano la loro collaborazione nel settore dei chip per l'intelligenza artificiale. L'accordo prevede la fornitura di memorie HBM4 e discussioni sulla produzione di fonderia, elementi cruciali per lo sviluppo di soluzioni AI ad al...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

AI e memorie: mercato dei semiconduttori a 1 trilione nel 2026

Secondo DIGITIMES, la domanda di AI e memorie specializzate porterà il mercato dei semiconduttori a superare il trilione di dollari nel 2026. Questo aumento è trainato dalla necessità di hardware avanzato per gestire carichi di lavoro di intelligenza...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Micron: risultati finanziari record nel 2Q26 grazie alla domanda di AI

Secondo Digitimes, Micron ha annunciato risultati finanziari eccezionali per il secondo trimestre del 2026, trainati principalmente dalla forte domanda di soluzioni per l'intelligenza artificiale. Questo dato sottolinea il ruolo crescente dell'AI com...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-19 DigiTimes

Micron: risultati record nel FQ2 2026 grazie alla domanda di AI

Micron Technology prevede risultati finanziari superiori alle attese per il secondo trimestre del 2026, trainati dalla forte domanda di soluzioni di memoria ad alte prestazioni per applicazioni di intelligenza artificiale. L'azienda beneficia in part...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-19 DigiTimes

AMD rafforza la collaborazione con Naver per l'infrastruttura AI

AMD intensifica la partnership con Naver, colosso tecnicico sudcoreano, per espandere le infrastrutture dedicate all'intelligenza artificiale. Questa mossa strategica mira a capitalizzare la crescente domanda di soluzioni AI avanzate nel mercato asia...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Samsung e AMD: collaborazione su HBM4 e memorie DDR5 per l'AI

Samsung e AMD rafforzano la loro partnership strategica con un memorandum d'intesa (MOU) focalizzato sull'ottimizzazione della fornitura di memorie HBM4 e sul supporto per le memorie DDR5, elementi chiave per le applicazioni di intelligenza artificia...

#Hardware #LLM On-Premise #DevOps
2026-03-19 TechWire Asia

Malesia: stop ai data center non-AI per favorire l'innovazione?

La Malesia blocca i progetti di data center non legati all'intelligenza artificiale da quasi due anni. Il governo vuole favorire investimenti in AI, ma emergono dubbi sulla sovranità tecnicica e sull'impatto sulla rete elettrica. La strategia mira a ...

2026-03-18 DigiTimes

Nvidia adotta Groq per l'inference AI ed espandere la portata globale

Nvidia stringe una partnership con Groq, segnalando un'espansione strategica nell'inference AI. Questa mossa potrebbe ampliare la presenza globale di Nvidia e affrontare le crescenti esigenze di calcolo per l'intelligenza artificiale.

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Corsa cinese ai chip per AI edge: focus su OpenClaw

I produttori cinesi di chip per intelligenza artificiale accelerano lo sviluppo di soluzioni per dispositivi edge, con un focus particolare sull'integrazione con piattaforme come OpenClaw. La competizione si intensifica per la leadership nel settore ...

#Hardware #LLM On-Premise #DevOps
2026-03-18 TechCrunch AI

Nvidia punta al networking: un business da 11 miliardi di dollari

Il settore networking di Nvidia ha generato 11 miliardi di dollari di fatturato nell'ultimo trimestre, superando le aspettative e ponendosi come un pilastro strategico accanto al core business delle GPU e del gaming. Questa crescita sottolinea l'impo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-18 Tom's Hardware

Nvidia punta su un unico modello di CPU Vera a 88 core

Nvidia prevede di generare miliardi di dollari da un singolo SKU della sua CPU Vera a 88 core. Questa decisione strategica semplifica la produzione e potenzialmente ottimizza la catena di approvvigionamento, concentrando gli sforzi su un'unica config...

#Hardware #LLM On-Premise #DevOps
2026-03-18 Tom's Hardware

Nvidia prepara chip custom per l'inference in Cina, Groq pronta a seguirla

Nvidia starebbe sviluppando una versione custom del suo chip per l'inference, destinata al mercato cinese. Questa mossa arriva mentre si prevede che le consegne di H200 raggiungeranno la Cina, con Groq che sembra intenzionata a seguire una strategia ...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia collabora con produttori di chip per la robotica industriale

Nvidia sta collaborando con diversi produttori di chip per accelerare lo sviluppo di soluzioni di robotica industriale avanzata. Questa partnership mira a sfruttare le capacità di calcolo di Nvidia per migliorare l'automazione e l'efficienza nei proc...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia punta ai chip AI di Groq per il mercato cinese: report

Secondo indiscrezioni, Nvidia starebbe valutando l'utilizzo dei chip AI di Groq per aggirare le restrizioni sull'export verso la Cina. Questa mossa strategica potrebbe consentire a Nvidia di mantenere la sua presenza nel mercato cinese, offrendo al c...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia: strategie di Jensen Huang per la prossima frontiera dell'AI

Il CEO di Nvidia, Jensen Huang, guida l'azienda attraverso le sfide del settore AI. Le strategie di Nvidia si concentrano sull'innovazione continua e sull'adattamento alle nuove esigenze del mercato, mantenendo la leadership nel settore delle GPU e d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-18 DigiTimes

Samsung, Nvidia e Groq: sinergia per l'inference AI

Samsung collabora con Nvidia e Groq per ottimizzare le prestazioni nell'inference AI. La sinergia tra i tre colossi punta a migliorare l'efficienza e la velocità delle consegne nei carichi di lavoro di intelligenza artificiale, sfruttando le rispetti...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia: futuro dell'interconnessione tra rame e fibra ottica

Secondo Digitimes, Nvidia sta esplorando un futuro in cui le interconnessioni tra componenti hardware sfrutteranno sia il rame che la fibra ottica. Questa strategia potrebbe avere implicazioni significative per le architetture di calcolo ad alte pres...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia H200: via libera in Cina e riavvio della produzione

Nvidia ottiene l'approvazione e gli ordini per la GPU H200 in Cina, riavviando la produzione della supply chain. Questo sviluppo indica una forte domanda di soluzioni di calcolo ad alte prestazioni nel mercato cinese, nonostante le restrizioni normat...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Sugon sfida Nvidia con fabric AI 400G per data center

Il produttore cinese di server Sugon ha presentato una nuova soluzione di interconnessione per data center AI, con velocità fino a 400G. Questa tecnicia mira a competere con le soluzioni InfiniBand di Nvidia, offrendo un'alternativa per le infrastrut...

#Hardware
2026-03-18 DigiTimes

Nvidia sfrutta DeepSeek R1 per consolidare dominio hardware/modelli

Secondo DIGITIMES, Nvidia sta capitalizzando il successo del modello linguistico DeepSeek R1 per rafforzare la sua posizione dominante sia nel mercato hardware che in quello dei modelli di intelligenza artificiale. Questa sinergia permette a Nvidia d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 TechCrunch AI

Mistral sfida OpenAI con AI personalizzabile per aziende

Mistral AI lancia Forge, una piattaforma che consente alle aziende di sviluppare modelli di AI personalizzati partendo da zero sui propri dati. L'approccio sfida i concorrenti che si basano su fine-tuning e tecniche di retrieval-based.

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-17 Tom's Hardware

Nvidia rinnova la roadmap data center: CPU Rosa, GPU Feynman e NVLink ottico

Nvidia aggiorna la sua roadmap per i data center, introducendo la CPU Rosa e le GPU Feynman. L'azienda punta su NVLink ottico e Groq LPUs con NVFP4, oltre a nuove versioni di NVLink. Queste innovazioni promettono di migliorare significativamente le p...

#Hardware #LLM On-Premise #DevOps
2026-03-17 Phoronix

Systemd 260 rilasciato: focus su mstack e agenti AI

È disponibile la versione 260 di Systemd, il sistema init e service manager per Linux. Questa release introduce nuove funzionalità e documentazione, con particolare attenzione all'integrazione di agenti AI e alla rimozione degli script di servizio Sy...

2026-03-17 Tom's Hardware

Nvidia: consegne di H200 in Cina e licenze USA riattivate

Jensen Huang annuncia la ripresa della produzione e delle consegne di GPU H200 per clienti cinesi, grazie a nuove licenze ottenute dal governo statunitense. Un segnale di distensione nel mercato delle consegne di acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Huang (Nvidia) risponde alle critiche sul DLSS 5 al GTC 2026

Durante il GTC 2026, Jensen Huang, CEO di Nvidia, ha risposto alle critiche riguardanti la tecnicia DLSS 5. I dettagli specifici della risposta e le argomentazioni presentate non sono esplicitate nella fonte, ma l'evento ha offerto una piattaforma pe...

#Hardware #LLM On-Premise #DevOps
2026-03-17 The Register AI

Nvidia punta allo spazio con il modulo Vera Rubin Space-1

Nvidia ha progettato un modulo, denominato Vera Rubin Space-1, destinato all'elaborazione dati direttamente nello spazio. Nonostante alcune perplessità del settore, l'azienda vede un futuro per i datacenter orbitali e propone una soluzione hardware s...

#Hardware #LLM On-Premise #DevOps
2026-03-17 ServeTheHome

NVIDIA Vera Rubin: inference AI con GPU e LPU Groq

NVIDIA integrerà le LPU di Groq nella sua architettura rackscale Vera Rubin. Questa mossa rappresenta una significativa espansione oltre l'uso esclusivo di GPU per l'inference AI, aprendo nuove possibilità per carichi di lavoro a bassa latenza. La pi...

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Rubin Ultra: la prima GPU AI con 1TB di HBM4E

Nvidia ha presentato Rubin Ultra, la prima GPU AI al mondo dotata di 1TB di memoria HBM4E. I nuovi chip saranno integrati nei rack Kyber, aprendo nuove frontiere per le prestazioni nell'inference e nel training di modelli di grandi dimensioni. Questa...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 DigiTimes

Nvidia GTC 2026: mercato inference a 1 trilione, LPU da Samsung

Secondo Digitimes, durante il GTC 2026, Jensen Huang ha previsto un mercato dell'inference AI da 1 trilione di dollari. Nvidia starebbe collaborando con Samsung per la produzione di una nuova LPU (Logic Processing Unit). L'annuncio sottolinea la cres...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

GTC 2026: SK Hynix, Samsung e Micron si sfidano per la memoria AI

Al GTC 2026, SK Hynix, Samsung e Micron si contenderanno la leadership nel mercato delle memorie HBM (High Bandwidth Memory) per applicazioni di intelligenza artificiale. La competizione si preannuncia intensa, con implicazioni significative per le p...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 Tech in Asia

Hyundai e Kia accelerano sulla guida autonoma con Nvidia

Hyundai e Kia rafforzano la collaborazione con Nvidia per lo sviluppo di tecnicie di guida autonoma. L'accordo prevede l'utilizzo delle piattaforme dati e delle tecnicie di intelligenza artificiale di Nvidia per creare una pipeline di apprendimento u...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

Samsung svela HBM4E e soluzioni AI complete al GTC 2026

Samsung ha presentato la sua memoria HBM4E al GTC 2026, evidenziando le sue soluzioni complete per l'intelligenza artificiale e la partnership con Nvidia. L'azienda coreana punta a rafforzare la sua posizione nel mercato in rapida espansione delle me...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

Intel si unisce a GTC, debutto CPU x86 co-sviluppata con Nvidia in vista

Intel parteciperà al GTC, con l'obiettivo di presentare la sua CPU x86 sviluppata in collaborazione con Nvidia. Questa mossa strategica potrebbe segnare un punto di svolta nel mercato dei processori, con implicazioni significative per i carichi di la...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Micron avvia la produzione di HBM4 per Nvidia Vera Rubin

Micron ha annunciato l'avvio della produzione in volumi elevati di HBM4, destinata alla piattaforma Nvidia Vera Rubin. La nuova memoria offre un miglioramento di 2.3 volte nella larghezza di banda e un aumento del 20% nell'efficienza energetica rispe...

#Hardware
2026-03-16 TechCrunch AI

Nvidia prevede ordini per Blackwell e Vera Rubin da 1 trilione di dollari

Jensen Huang, CEO di Nvidia, stima che gli ordini per le nuove architetture Blackwell e Vera Rubin raggiungeranno il valore di 1 trilione di dollari. Questa previsione sottolinea la forte domanda di acceleratori di calcolo per carichi di lavoro di in...

#Hardware #LLM On-Premise #DevOps
2026-03-16 The Register AI

DLSS 5 di Nvidia: personaggi più realistici grazie all'AI

La nuova generazione della tecnicia DLSS di Nvidia promette di migliorare il realismo dei personaggi nei videogiochi, riducendo l'effetto di 'uncanny valley' e portando la grafica a un livello superiore di dettaglio e naturalezza.

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia prevede vendite hardware AI per 1 trilione di dollari entro il 2027

Il CEO di Nvidia, Jensen Huang, stima che l'azienda venderà hardware per l'intelligenza artificiale per un valore di 1 trilione di dollari entro il 2027. Questa previsione riflette la crescente domanda di capacità di calcolo per supportare lo svilupp...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia Nemotron: coalizione per modelli open source di frontiera

Nvidia ha annunciato una coalizione Nemotron che riunisce otto laboratori di intelligenza artificiale per sviluppare modelli open source di frontiera. L'iniziativa mira a promuovere l'innovazione e la collaborazione nel campo dell'AI, con un focus su...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia Vera Rubin: potenza di calcolo AI 25x H100 per data center orbitali

Nvidia presenta il modulo Vera Rubin, pensato per l'elaborazione di dati in orbita. Offre una capacità di calcolo AI fino a 25 volte superiore rispetto a una GPU H100, aprendo nuove frontiere nell'analisi spaziale e nell'inference a bassa latenza dir...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Intel Xeon 6: CPU per i sistemi Nvidia DGX Rubin NVL8

Intel si aggiudica un contratto significativo: i processori Xeon 6 saranno utilizzati nei sistemi Nvidia DGX Rubin NVL8. Questa mossa avviene mentre Nvidia entra nel mercato dei processori per data center con le CPU Vera.

#Hardware #LLM On-Premise #DevOps
2026-03-16 The Register AI

Nvidia integra tecnicia Groq in rack LPX per inference AI accelerata

Nvidia utilizzerà le LPU (Language Processing Units) di Groq, acquisita per 20 miliardi di dollari, per migliorare le prestazioni di inference dei sistemi rack Vera Rubin. L'obiettivo è accelerare i tempi di risposta delle applicazioni di intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Roadmap di Intel: processori 14A, Nova Lake, Diamond Rapids e acceleratori AI

Intel prosegue nello sviluppo di nuove architetture hardware, con un focus particolare sui processori 14A, Nova Lake e Diamond Rapids. L'azienda punta anche a rafforzare la propria offerta di acceleratori dedicati all'intelligenza artificiale, in un ...

#Hardware #LLM On-Premise #DevOps
2026-03-16 TechCrunch AI

Nvidia GTC 2026: cosa aspettarsi dalla presentazione di Jensen Huang

L'evento annuale GTC di Nvidia è il palcoscenico in cui l'azienda svela le sue ultime novità in fatto di prodotti, partnership e strategie per il futuro del calcolo. La presentazione di Jensen Huang si concentrerà sul ruolo di Nvidia nell'evoluzione ...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia GTC 2026: Anticipazioni sulla prossima generazione di GPU

Un'anteprima del futuro dell'accelerazione computazionale: cosa aspettarsi dalla conferenza Nvidia GTC 2026 in termini di nuove architetture GPU e progressi nell'ambito dell'intelligenza artificiale. L'evento rimane un punto di riferimento per i prof...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-16 AI News

NTT DATA e NVIDIA: fabbriche AI enterprise su scala di produzione

NTT DATA lancia piattaforme NVIDIA-powered per scalare l'AI, integrando GPU, networking ad alte prestazioni e software NVIDIA AI Enterprise (NeMo e NIM Microservices). L'obiettivo è standardizzare l'output e ridurre tempi/costi dal proof-of-concept a...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic