Topic / Trend Rising

Infrastrutture AI e Cloud Computing

Questa tendenza copre i massicci investimenti e l'espansione di data center e servizi cloud specifici per i carichi di lavoro AI. Affronta le sfide di scalabilità della capacità di calcolo, gestione del consumo energetico e i cambiamenti strategici dei principali fornitori di cloud per soddisfare la domanda di AI.

Detected: 2026-05-06 · Updated: 2026-05-06

Articoli Correlati

2026-05-06 DigiTimes

L'AI rivoluziona il testing dei semiconduttori: la visione del CEO di AEM

Il CEO di AEM evidenzia come l'intelligenza artificiale stia trasformando radicalmente il settore del testing dei semiconduttori. Questa evoluzione impone nuove sfide e opportunità per l'industria, spingendo verso l'adozione di soluzioni più efficien...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 The Register AI

Agenti AI su AWS WorkSpaces: il costo di 500.000 token per interazione

AWS ha abilitato l'uso di agenti AI all'interno dei suoi ambienti WorkSpaces, desktop virtuali basati su cloud. Un benchmark interno suggerisce che l'interazione tramite API è più efficiente e meno costosa rispetto all'automazione basata su interfacc...

#Hardware #LLM On-Premise #DevOps
2026-05-06 DigiTimes

Flex: prospettive 2027 superate e spin-off dell'unità data center AI

Flex ha annunciato prospettive finanziarie per il 2027 superiori alle attese e il piano di scorporare la sua unità dedicata ai data center per l'intelligenza artificiale. Questa mossa strategica evidenzia la crescente importanza dell'infrastruttura A...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Acer E-Enabling: Ricavi record nel Q1 spinti dai progetti AI cloud

Acer E-Enabling ha registrato ricavi record nel primo trimestre, un risultato attribuito alla crescente domanda di progetti di intelligenza artificiale basati su cloud. Questo trend evidenzia l'espansione del mercato AI e le dinamiche tra soluzioni c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

Lumentum: la domanda di AI spinge risultati record e l'espansione nel settore

Lumentum, fornitore chiave di componenti ottici, registra una crescita esplosiva e risultati finanziari record, trainata dalla crescente domanda nel settore dell'intelligenza artificiale. Questo trend evidenzia l'importanza critica dell'infrastruttur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-06 DigiTimes

AMD alza le previsioni: la domanda di AI spinge la crescita dei data center

AMD ha rivisto al rialzo le proprie previsioni finanziarie, citando una robusta domanda di soluzioni AI che alimenta l'espansione dei data center. Questo trend sottolinea la crescente necessità di hardware dedicato per carichi di lavoro di intelligen...

#Hardware #LLM On-Premise #DevOps
2026-05-06 DigiTimes

AI e TSMC: la nuova geografia economica di Taiwan e le sfide on-premise

Il panorama globale della produzione di chip, con TSMC al centro, sta subendo trasformazioni significative, influenzate dall'ascesa dell'intelligenza artificiale. Questi cambiamenti, che vedono spostamenti geografici dalla Cina all'Arizona, ridefinis...

#Hardware #LLM On-Premise #DevOps
2026-05-05 The Register AI

OpenAI: 50 miliardi di dollari per la potenza di calcolo nel 2024

Un dirigente di OpenAI ha rivelato in tribunale che l'azienda prevede di investire 50 miliardi di dollari in potenza di calcolo entro la fine dell'anno. Questa cifra evidenzia i costi elevati associati allo sviluppo e al training di Large Language Mo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 LocalLLaMA

Google accelera l'inference LLM su TPU con il decoding speculativo

Google ha annunciato significativi progressi nell'ottimizzazione dell'inference per i Large Language Models (LLM) sulle sue Tensor Processing Units (TPU). Attraverso l'implementazione di una tecnica di decoding speculativo ispirata ai modelli di diff...

#Hardware #LLM On-Premise #DevOps
2026-05-05 Microsoft Research

Microsoft a NSDI '26: Innovazioni per Sistemi di Rete su Larga Scala e AI

Microsoft ha presentato 11 ricerche a NSDI '26, evidenziando progressi nei sistemi di rete su larga scala, infrastrutture cloud e AI. Le innovazioni spaziano dall'ottimizzazione del throughput per i LLM con DroidSpeak, all'automazione dei test con Ey...

#Hardware #LLM On-Premise #DevOps
2026-05-05 TechCrunch AI

Krutrim, l'unicorno GenAI indiano, vira al cloud tra sfide economiche

Krutrim, il primo unicorno indiano nel settore dell'AI generativa, ha annunciato un passaggio strategico ai servizi cloud. Questa mossa, che segue licenziamenti e aggiornamenti di prodotto limitati, evidenzia le significative sfide economiche e infra...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

La Spinta di Google con le TPU Sfida il Dominio di Nvidia nel Neocloud AI

Google intensifica la sua offerta di Tensor Processing Units (TPU), mettendo sotto pressione la consolidata leadership di Nvidia nel mercato dell'infrastruttura AI basata su cloud. Questa competizione ridefinisce le dinamiche per le aziende che valut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-05 DigiTimes

La domanda di HPC per l'AI spinge CHPT a ricavi record ad aprile

CHPT ha registrato un fatturato record ad aprile, un risultato trainato dalla crescente domanda di High-Performance Computing (HPC) alimentata dai carichi di lavoro dell'intelligenza artificiale. Questo dato evidenzia l'impatto significativo dell'AI ...

#Hardware #LLM On-Premise #DevOps
2026-05-05 DigiTimes

Onsemi punta sui data center AI e Treo per la ripresa di ricavi e margini

Onsemi, azienda leader nel settore dei semiconduttori, ha individuato nei data center dedicati all'intelligenza artificiale e nel suo segmento Treo i principali motori per la crescita futura. Questa strategia mira a rafforzare la posizione dell'azien...

#Hardware #LLM On-Premise #DevOps
2026-05-04 LocalLLaMA

LLM a confronto: Talkie-1930 e Gemma 4 31B tra locale e cloud

Un recente esperimento ha messo a confronto due Large Language Models, Talkie-1930-13b-it e Gemma 4 31b, in una conversazione simulata. L'iniziativa evidenzia le diverse opzioni di deployment per gli LLM, offrendo sia la possibilità di eseguire i mod...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 The Next Web

Blackstone punta a 1,75 miliardi per i data center dell'era AI

Blackstone ha annunciato il lancio di Blackstone Digital Infrastructure Trust (BXDC), un REIT che mira a raccogliere 1,75 miliardi di dollari. L'iniziativa si concentra su data center di nuova costruzione, destinati a essere affittati a hyperscaler p...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 LocalLLaMA

Costo di hosting cloud per Qwen3.6 35B: la sfida del deployment temporaneo

Un utente si interroga sui costi di hosting cloud per il modello Qwen3.6 35B, apprezzato per le sue capacità di coding. La necessità nasce dalla mancanza di hardware adeguato per un deployment locale immediato. La soluzione cloud è vista come tempora...

#Hardware #LLM On-Premise #DevOps
2026-05-04 DigiTimes

L'accelerazione ottica: i Micro LED di Taiwan per i data center AI

I fornitori taiwanesi di Micro LED stanno intensificando gli sforzi sui collegamenti ottici per i data center dedicati all'intelligenza artificiale. Questa tendenza sottolinea la crescente domanda di connettività ad alta velocità e bassa latenza, ess...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Delta Electronics: Ricavi e margini record nel Q1 trainati dai data center AI

Delta Electronics ha annunciato risultati finanziari eccezionali per il primo trimestre, con ricavi e margini record. Questa crescita è attribuita all'impennata della domanda per i data center dedicati all'intelligenza artificiale. Il fenomeno eviden...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-02 The Register AI

LLM on-premise: affrontare i costi crescenti e i limiti dei token nel cloud

I fornitori di Large Language Models stanno implementando limiti di utilizzo più stringenti e modelli di pricing basati sul consumo, rendendo i progetti AI basati su cloud sempre più costosi. Questa tendenza spinge le aziende e gli sviluppatori a val...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 The Register AI

Le insidie nascoste del deployment AI: quando l'infrastruttura fa paura

Per i professionisti IT, le vere paure non sono fantasmi, ma le insidie del deployment di sistemi AI complessi. Questo articolo esplora le sfide e le ansie legate alla gestione di infrastrutture per Large Language Models (LLM) on-premise, dalla selez...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 Tom's Hardware

L'espansione dei data center AI in Texas rallenta l'edilizia residenziale

L'intensa crescita dei data center dedicati all'intelligenza artificiale in Texas sta generando una forte domanda di elettricisti qualificati. Questa competizione per la manodopera specializzata sta causando ritardi significativi nei progetti di cost...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 DigiTimes

LG Electronics e Nvidia: sinergie AI per data center, robotica e mobilità

LG Electronics e Nvidia hanno annunciato l'esplorazione di una partnership strategica focalizzata sull'intelligenza artificiale. La collaborazione mira a sviluppare soluzioni innovative nei settori della robotica, dei data center e della mobilità, co...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 The Register AI

Google Cloud apre le TPU ai clienti esterni: diversificazione e spinta AI

Google Cloud ha annunciato la disponibilità delle proprie unità di elaborazione tensoriale (TPU) personalizzate per una selezione di clienti. Questa iniziativa risponde alla crescente domanda di hardware specializzato per l'intelligenza artificiale e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 TechCrunch AI

Amazon AWS: Spese in Capitale in Aumento con la Crescita del Cloud

Amazon Web Services (AWS) sta superando le aspettative di ricavo, ma l'azienda sta anche incrementando significativamente le sue spese in capitale, un trend che il CEO prevede continuerà nel breve termine. Questo scenario evidenzia le dinamiche di in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 TechCrunch AI

Meta e i costi dell'innovazione: miliardi tra AR/VR e AI

Meta continua a registrare perdite significative nel suo segmento Reality Labs, dedicato alla realtà aumentata e virtuale. Parallelamente, l'azienda sta intensificando gli investimenti nell'intelligenza artificiale, una mossa che, sebbene strategica,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

La carenza di TPU di Google e la sfida dell'infrastruttura AI

La carenza di Tensor Processing Units (TPU) di Google sta mettendo in luce una crescente disparità nell'infrastruttura dedicata all'intelligenza artificiale. Questo scenario evidenzia come l'accesso a hardware specializzato sia cruciale per lo svilup...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 OpenAI Blog

OpenAI potenzia Stargate: l'infrastruttura di calcolo per l'era dell'AGI

OpenAI sta espandendo il suo progetto Stargate, un'iniziativa strategica per costruire l'infrastruttura di calcolo necessaria a sostenere lo sviluppo dell'Intelligenza Artificiale Generale (AGI). L'azienda sta aumentando la capacità dei propri data c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 The Next Web

LG Electronics e Nvidia: colloqui su robotica, data center AI e mobilità

LG Electronics e Nvidia hanno avviato discussioni per una potenziale collaborazione strategica in robotica, data center per l'intelligenza artificiale e mobilità. L'iniziativa, partita da Nvidia, mira a rafforzare le ambizioni di LG nell'AI fisica e ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 IEEE Spectrum

La "lotteria del silicio": variabilità inattesa nelle prestazioni GPU cloud

Una ricerca congiunta rivela significative variazioni prestazionali tra GPU dello stesso modello, un fenomeno noto come "lotteria del silicio". Questo impatta il valore del noleggio di risorse cloud per carichi di lavoro AI, con differenze fino al 38...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic