Topic / Trend Rising

Il Dominio di Nvidia nell'Framework AI

Nvidia continua a consolidare la sua posizione di leader nell'infrastruttura AI, con nuove versioni hardware, partnership e un ecosistema in crescita. Le innovazioni dell'azienda stanno guidando i progressi nel calcolo e nel networking dell'AI.

Detected: 2026-03-20 · Updated: 2026-03-20

Articoli Correlati

2026-03-20 TechWire Asia

NVIDIA DRIVE Hyperion: i costruttori auto asiatici puntano sull'AI

BYD, Geely, Nissan e Isuzu adottano NVIDIA DRIVE Hyperion per lo sviluppo di veicoli autonomi di livello 4. La piattaforma di NVIDIA si sta affermando come infrastruttura standard nel mercato APAC, offrendo un'architettura di riferimento completa per...

#Hardware #LLM On-Premise #DevOps
2026-03-19 Wired AI

Nvidia GTC 2024: focus sull'AI, Tesla delude, Meta ripensa il VR

L'articolo analizza la conferenza annuale degli sviluppatori di Nvidia, con un focus sulle dichiarazioni del CEO Jensen Huang riguardo al futuro dell'azienda nel settore dell'intelligenza artificiale. Vengono inoltre toccati i temi della performance ...

#Hardware #LLM On-Premise #DevOps
2026-03-19 ServeTheHome

NVIDIA Vera: CPU ad alte prestazioni per il mercato server AI

NVIDIA, nota per le sue GPU, continua a investire nel mercato delle CPU. Con la CPU Vera, l'azienda punta a espandere la propria presenza nel settore dei server dedicati all'intelligenza artificiale, diversificando ulteriormente il suo portafoglio pr...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia accosta Groq 3 LPU a Vera Rubin: era dell'inference?

Nvidia affianca le LPU Groq 3 a Vera Rubin, suggerendo un focus crescente sull'inference. La mossa potrebbe segnalare una nuova era nell'accelerazione hardware per carichi di lavoro di intelligenza artificiale, con implicazioni per deployment on-prem...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia GTC 2026: Huang ribadisce l'impegno per Taiwan

Durante il GTC 2026, Nvidia ha ospitato una serata dedicata a Taiwan, con il CEO Jensen Huang che ha espresso il suo sostegno all'isola. L'evento sottolinea l'importanza di Taiwan per Nvidia e l'industria tecnicica globale.

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Nvidia standardizza il raffreddamento a liquido Vera Rubin

Nvidia ha presentato a GTC le specifiche standardizzate per il raffreddamento a liquido Vera Rubin, identificando quattro fornitori di cold plate. Questa mossa sottolinea l'importanza crescente del raffreddamento a liquido per i sistemi di calcolo ad...

#Hardware #LLM On-Premise #DevOps
2026-03-19 DigiTimes

Groq e CPU: nuove architetture per l'inference AI

L'articolo esplora come l'architettura di Groq si posiziona rispetto alla strategia di inference di Nvidia, e come le CPU stiano ridefinendo il panorama architetturale per gli agenti AI, aprendo nuove prospettive sull'elaborazione distribuita e speci...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia adotta Groq per l'inference AI ed espandere la portata globale

Nvidia stringe una partnership con Groq, segnalando un'espansione strategica nell'inference AI. Questa mossa potrebbe ampliare la presenza globale di Nvidia e affrontare le crescenti esigenze di calcolo per l'intelligenza artificiale.

#Hardware #LLM On-Premise #DevOps
2026-03-18 TechCrunch AI

Nvidia punta al networking: un business da 11 miliardi di dollari

Il settore networking di Nvidia ha generato 11 miliardi di dollari di fatturato nell'ultimo trimestre, superando le aspettative e ponendosi come un pilastro strategico accanto al core business delle GPU e del gaming. Questa crescita sottolinea l'impo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-18 DigiTimes

Nvidia punta ai chip AI di Groq per il mercato cinese: report

Secondo indiscrezioni, Nvidia starebbe valutando l'utilizzo dei chip AI di Groq per aggirare le restrizioni sull'export verso la Cina. Questa mossa strategica potrebbe consentire a Nvidia di mantenere la sua presenza nel mercato cinese, offrendo al c...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia: futuro dell'interconnessione tra rame e fibra ottica

Secondo Digitimes, Nvidia sta esplorando un futuro in cui le interconnessioni tra componenti hardware sfrutteranno sia il rame che la fibra ottica. Questa strategia potrebbe avere implicazioni significative per le architetture di calcolo ad alte pres...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Nvidia H200: via libera in Cina e riavvio della produzione

Nvidia ottiene l'approvazione e gli ordini per la GPU H200 in Cina, riavviando la produzione della supply chain. Questo sviluppo indica una forte domanda di soluzioni di calcolo ad alte prestazioni nel mercato cinese, nonostante le restrizioni normat...

#Hardware #LLM On-Premise #DevOps
2026-03-18 DigiTimes

Sugon sfida Nvidia con fabric AI 400G per data center

Il produttore cinese di server Sugon ha presentato una nuova soluzione di interconnessione per data center AI, con velocità fino a 400G. Questa tecnicia mira a competere con le soluzioni InfiniBand di Nvidia, offrendo un'alternativa per le infrastrut...

#Hardware
2026-03-18 DigiTimes

Nvidia sfrutta DeepSeek R1 per consolidare dominio hardware/modelli

Secondo DIGITIMES, Nvidia sta capitalizzando il successo del modello linguistico DeepSeek R1 per rafforzare la sua posizione dominante sia nel mercato hardware che in quello dei modelli di intelligenza artificiale. Questa sinergia permette a Nvidia d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-17 OpenAI Blog

ChatGPT: boom di richieste su stipendi e retribuzioni

Una nuova ricerca evidenzia come gli utenti statunitensi inviino quotidianamente quasi 3 milioni di messaggi a ChatGPT per ottenere informazioni su stipendi e retribuzioni. Questo trend contribuisce a colmare il divario informativo salariale, offrend...

#LLM On-Premise
2026-03-17 Tom's Hardware

Nvidia: consegne di H200 in Cina e licenze USA riattivate

Jensen Huang annuncia la ripresa della produzione e delle consegne di GPU H200 per clienti cinesi, grazie a nuove licenze ottenute dal governo statunitense. Un segnale di distensione nel mercato delle consegne di acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-03-17 The Register AI

Nvidia punta allo spazio con il modulo Vera Rubin Space-1

Nvidia ha progettato un modulo, denominato Vera Rubin Space-1, destinato all'elaborazione dati direttamente nello spazio. Nonostante alcune perplessità del settore, l'azienda vede un futuro per i datacenter orbitali e propone una soluzione hardware s...

#Hardware #LLM On-Premise #DevOps
2026-03-17 Tom's Hardware

Nvidia Vera Rubin POD: supercomputer AI da 60 exaflop basato su sette chip

Nvidia presenta Vera Rubin POD, un supercomputer AI da 60 exaflop alimentato da sette chip Rubin. La soluzione, alloggiata in 40 rack, rappresenta un'infrastruttura di calcolo avanzata per carichi di lavoro di intelligenza artificiale complessi.

#Hardware #LLM On-Premise #DevOps
2026-03-17 ServeTheHome

NVIDIA Vera Rubin: inference AI con GPU e LPU Groq

NVIDIA integrerà le LPU di Groq nella sua architettura rackscale Vera Rubin. Questa mossa rappresenta una significativa espansione oltre l'uso esclusivo di GPU per l'inference AI, aprendo nuove possibilità per carichi di lavoro a bassa latenza. La pi...

#Hardware #LLM On-Premise #DevOps
2026-03-17 DigiTimes

Nvidia GTC 2026: mercato inference a 1 trilione, LPU da Samsung

Secondo Digitimes, durante il GTC 2026, Jensen Huang ha previsto un mercato dell'inference AI da 1 trilione di dollari. Nvidia starebbe collaborando con Samsung per la produzione di una nuova LPU (Logic Processing Unit). L'annuncio sottolinea la cres...

#Hardware #LLM On-Premise #DevOps
2026-03-16 TechCrunch AI

Nvidia prevede ordini per Blackwell e Vera Rubin da 1 trilione di dollari

Jensen Huang, CEO di Nvidia, stima che gli ordini per le nuove architetture Blackwell e Vera Rubin raggiungeranno il valore di 1 trilione di dollari. Questa previsione sottolinea la forte domanda di acceleratori di calcolo per carichi di lavoro di in...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia prevede vendite hardware AI per 1 trilione di dollari entro il 2027

Il CEO di Nvidia, Jensen Huang, stima che l'azienda venderà hardware per l'intelligenza artificiale per un valore di 1 trilione di dollari entro il 2027. Questa previsione riflette la crescente domanda di capacità di calcolo per supportare lo svilupp...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Groq presenta LPU e rack LPX con piattaforma Rubin al GTC

Groq ha presentato al GTC la sua piattaforma Rubin, che include le nuove LPU (Language Processing Unit) e i rack LPX. Questi acceleratori, dotati di SRAM, promettono di migliorare ogni livello del modello di intelligenza artificiale su ogni token, of...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia GTC 2026: Huang svela il futuro della tecnicia

Jensen Huang ha aperto la GTC 2026 a San Jose, presentando le ultime novità di Nvidia. L'evento promette di svelare le prossime frontiere della tecnicia, con un focus su GPU, IA e calcolo accelerato. Si attendono annunci su nuove architetture hardwar...

#Hardware #LLM On-Premise #DevOps
2026-03-16 TechCrunch AI

Frore Systems: nuova unicorno deep tech grazie al raffreddamento a liquido

Frore Systems, startup specializzata in soluzioni di raffreddamento a liquido per chip, ha raggiunto una valutazione di 1,64 miliardi di dollari. L'azienda ha raccolto 143 milioni di dollari di finanziamenti, anche grazie al supporto del CEO di Nvidi...

#Hardware #LLM On-Premise #DevOps
2026-03-16 Tom's Hardware

Nvidia GTC 2026: Anticipazioni sulla prossima generazione di GPU

Un'anteprima del futuro dell'accelerazione computazionale: cosa aspettarsi dalla conferenza Nvidia GTC 2026 in termini di nuove architetture GPU e progressi nell'ambito dell'intelligenza artificiale. L'evento rimane un punto di riferimento per i prof...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-16 AI News

NTT DATA e NVIDIA: fabbriche AI enterprise su scala di produzione

NTT DATA lancia piattaforme NVIDIA-powered per scalare l'AI, integrando GPU, networking ad alte prestazioni e software NVIDIA AI Enterprise (NeMo e NIM Microservices). L'obiettivo è standardizzare l'output e ridurre tempi/costi dal proof-of-concept a...

#Hardware #LLM On-Premise #DevOps
2026-03-16 DigiTimes

Nvidia anticipa la visione per l'infrastruttura AI del futuro

Il CEO di Nvidia ha delineato una nuova visione per l'infrastruttura di intelligenza artificiale, anticipando possibili annunci durante il GTC 2026. L'articolo esplora le implicazioni di questa visione per il futuro del calcolo accelerato e le sue ap...

#Hardware #LLM On-Premise #DevOps
2026-03-14 DigiTimes

Browave punta a decuplicare la capacità CPO entro il 2027

Il produttore Browave prevede un aumento di dieci volte della sua capacità produttiva mensile di CPO (Co-Packaged Optics) entro il 2027, in risposta alla crescente domanda da parte dei data center AI. Questa espansione mira a soddisfare le esigenze d...

#LLM On-Premise #DevOps
2026-03-14 DigiTimes

Pan-International punta su server AI e robotica per crescita a doppia cifra

Il produttore taiwanese Pan-International sta riorientando la propria attività verso server per intelligenza artificiale e robotica, con l'obiettivo di raggiungere una crescita a doppia cifra. La decisione strategica riflette la crescente domanda di ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-13 Tech.eu

Nscale raccoglie $2 miliardi, Legora fa la prima acquisizione

La settimana appena trascorsa ha visto un'intensa attività di finanziamenti e fusioni nel panorama tech europeo. Nscale, supportata da Nvidia, ha raccolto 2 miliardi di dollari, mentre la startup di Yann LeCun, Advanced Machine Intelligence, ha super...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic