Topic / Trend Rising

Framework Cloud per l'AI

La domanda di AI sta guidando investimenti significativi nell'infrastruttura cloud, con importanti attori come Amazon, Google e Microsoft che espandono la capacità dei loro data center e sviluppano silicio personalizzato. Questa tendenza sta anche portando a nuove architetture e soluzioni di gestione dell'alimentazione ottimizzate per i carichi di lavoro AI.

Detected: 2026-02-09 · Updated: 2026-02-09

Articoli Correlati

2026-02-09 DigiTimes

Crescita di CHPT trainata dal Nord America: focus sui guadagni trimestrali

Secondo Digitimes, la crescita di CHPT nel 2026 sarà guidata principalmente dalla domanda proveniente dal Nord America. L'azienda punta a migliorare i risultati trimestrali, concentrandosi sull'espansione del mercato e sull'ottimizzazione delle opera...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

Tower Semiconductor e Nvidia: moduli ottici 1.6T per data center AI

Tower Semiconductor e Nvidia collaborano per sviluppare moduli ottici da 1.6T destinati a migliorare le prestazioni delle reti nei data center AI. Questa tecnicia promette di accelerare significativamente il trasferimento dati, cruciale per le applic...

#Hardware #LLM On-Premise #DevOps
2026-02-08 DigiTimes

Taiwan: ordini CSP e spazio trainano la filiera nel 2026

La filiera tecnicica di Taiwan prevede un inizio 2026 positivo, grazie alla domanda da parte dei fornitori di servizi cloud (CSP) e alla crescita del settore aerospaziale. Questi fattori compensano le incertezze economiche globali, sostenendo la prod...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Cluster AMD Strix Halo: Inference LLM Distribuita con RDMA RoCE v2

Un cluster a due nodi basato su AMD Strix Halo, interconnesso tramite Intel E810 (RoCE v2), è stato realizzato per l'inference distribuita di LLM utilizzando Tensor Parallelism. I benchmark e la guida alla configurazione sono disponibili online, apre...

#Hardware #LLM On-Premise #DevOps
2026-02-07 TechCrunch AI

New York valuta moratoria di tre anni sui nuovi data center

Lo stato di New York sta considerando una moratoria di tre anni sulla costruzione di nuovi data center. New York è almeno il sesto stato a valutare una simile misura, sebbene le prospettive del disegno di legge rimangano incerte.

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Monitoraggio LLM on-premise con Grafana, Prometheus e DCGM

Un utente ha implementato un sistema di monitoraggio completo per il proprio server LLM domestico, utilizzando Grafana, Prometheus e DCGM per tenere traccia di parametri come l'utilizzo della GPU, il consumo energetico e le velocità di elaborazione d...

#Hardware #LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

GLM-5 in fase di test su OpenRouter

Il modello linguistico GLM-5 è attualmente in fase di test sulla piattaforma OpenRouter. Questa notizia, proveniente da una discussione su Reddit, indica un potenziale ampliamento dell'offerta di modelli disponibili per gli utenti di OpenRouter, apre...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Investimenti record: Big Tech spenderanno 635 miliardi in infrastrutture AI

Amazon, Google, Meta e Microsoft prevedono di investire collettivamente circa 635 miliardi di dollari in infrastrutture, con una quota significativa destinata a datacenter e infrastrutture per l'intelligenza artificiale. Questa cifra supera il PIL di...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

I CSP guardano al silicio custom per ridurre la dipendenza da Nvidia

I cloud service provider (CSP) stanno esplorando soluzioni di silicio personalizzate per diversificare le proprie opzioni hardware e ridurre la dipendenza dai fornitori tradizionali come Nvidia. Questa tendenza potrebbe portare a nuove architetture o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Foxconn: boom del 35% grazie ai server AI a gennaio

Il produttore Foxconn registra un aumento del fatturato del 35% a gennaio, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato riflette la crescente importanza dell'hardware specializzato per i carichi di lavoro ...

#Hardware #LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

AWS: crescita record grazie alla domanda di AI

Amazon Web Services (AWS) ha registrato il trimestre con la crescita più alta degli ultimi 13 trimestri nel quarto trimestre del 2025. La forte domanda di servizi legati all'intelligenza artificiale ha contribuito in modo significativo a questo risul...

#LLM On-Premise #DevOps
2026-02-05 Phoronix

Ubuntu supporterà SpacemiT K3, uno dei primi SoC RISC-V RVA23

Canonical e SpacemiT hanno annunciato il supporto ufficiale di Ubuntu Linux per il nuovo SoC K3 RISC-V di SpacemiT. Il K3 si distingue per essere uno dei primi design RISC-V RVA23 disponibili, aprendo nuove prospettive per l'adozione di questa archit...

2026-02-05 LocalLLaMA

Hugging Face: problemi di accesso, ma servizi attivi?

Segnalazioni di difficoltà di accesso alla piattaforma Hugging Face si sono diffuse online. Alcuni utenti riportano di non riuscire ad accedere, mentre altri affermano che i servizi principali rimangono operativi. La causa del problema e la sua esten...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

MediaTek punta a 1 miliardo di dollari nel mercato ASIC cloud entro il 2026

MediaTek prevede una crescita significativa nel mercato dei chip ASIC per il cloud, con l'obiettivo di raggiungere un fatturato di 1 miliardo di dollari entro il 2026. L'azienda punta a consolidare la propria posizione in questo settore in espansione...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

Positron sfida Nvidia con chip AI: round da 230 milioni di dollari

Positron ha raccolto 230 milioni di dollari in un round di finanziamento Serie B, con la partecipazione del Qatar Investment Authority. L'azienda punta a competere con Nvidia nel mercato dei chip per l'intelligenza artificiale, in un contesto di cres...

#Hardware
2026-02-04 DigiTimes

Forte domanda di server AI nel 2026, Vanguard Semiconductor ottimista

Vanguard International Semiconductor prevede una forte crescita della domanda di potenza per i server AI a partire dal 2026. La società si aspetta un impatto significativo sul mercato dei semiconduttori, con implicazioni per i produttori di hardware ...

#LLM On-Premise #DevOps
2026-02-03 Tom's Hardware

Intel collabora a Z-Angle Memory per data center AI

Intel e Saimemory (gruppo SoftBank) collaborano per sviluppare Z-Angle Memory (ZAM), una memoria verticale per data center AI. ZAM promette capacità 2-3 volte superiori, maggiore larghezza di banda e consumi dimezzati rispetto alle soluzioni attuali.

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

L'AI ridefinisce l'alimentazione dei data center a livello di rack

I data center si stanno evolvendo per supportare i crescenti carichi di lavoro dell'intelligenza artificiale. Nuove architetture di alimentazione a livello di rack emergono per gestire al meglio le richieste energetiche delle GPU ad alte prestazioni,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 DigiTimes

Nvidia riprende il controllo del raffreddamento con AI CDU

Nvidia introduce AI CDU (Cooling Distribution Unit), segnalando un approccio software-defined alla gestione termica nei data center AI. Questo sviluppo potrebbe ottimizzare l'efficienza energetica e le performance dei sistemi di inference e training ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-02 Tom's Hardware

Huang (Nvidia): TSMC deve accelerare per soddisfare la domanda AI

Il CEO di Nvidia, Jensen Huang, avverte che TSMC, il principale produttore di chip, dovrà incrementare significativamente la sua capacità produttiva per tenere il passo con la crescente domanda di hardware per l'intelligenza artificiale. Huang preved...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Nvidia GB200 spinge il settore chassis verso il raffreddamento a liquido

L'introduzione della GPU Nvidia GB200 sta accelerando l'adozione di sistemi di raffreddamento a liquido e integrazione a livello di rack nel settore dei chassis. Questa transizione è guidata dalla necessità di gestire l'aumento della densità di poten...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic