Topic / Trend Rising

Infrastrutture AI e Pipeline di Fornitura

La domanda di hardware AI specializzato, come TPU e HBM, sta guidando ingenti investimenti in data center, soluzioni di raffreddamento avanzate e una solida catena di fornitura globale. Taiwan rimane un hub critico per la produzione di questi componenti essenziali.

Detected: 2026-04-28 · Updated: 2026-04-28

Articoli Correlati

2026-04-28 DigiTimes

Acer e la Formazione di Talenti: Un Pilastro per l'AI On-Premise

In occasione del suo 50° anniversario, Acer sottolinea l'importanza della coltivazione di talenti a Taiwan. Questo focus evidenzia una tendenza cruciale per l'intero settore tecnicico, in particolare per l'espansione delle capacità di Intelligenza Ar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Nanya entra nell'ecosistema di memoria AI di Nvidia con LPDDR

Nanya Technology si inserisce nel panorama delle soluzioni di memoria per l'intelligenza artificiale di Nvidia, introducendo la tecnicia LPDDR. Questa mossa suggerisce un'espansione delle opzioni disponibili per i sistemi AI, con potenziali implicazi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Turiyam.ai e l'opportunità dell'inference AI con piattaforme full-stack

La startup indiana Turiyam.ai si posiziona nel crescente mercato dell'inference AI con una piattaforma compute full-stack. L'iniziativa mira a semplificare il deployment di carichi di lavoro AI, offrendo soluzioni integrate che possono rivelarsi cruc...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

La strategia cloud di Microsoft e la stretta sulle risorse di calcolo AI

La strategia di Microsoft nel settore cloud sta influenzando la disponibilità di risorse di calcolo per l'intelligenza artificiale. Questa dinamica evidenzia una crescente domanda di capacità computazionale per i carichi di lavoro AI e solleva interr...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

Meta e l'energia solare spaziale per l'AI: una scommessa sul futuro

Meta sta esplorando l'energia solare "orbit-to-grid" per alimentare la propria infrastruttura AI 24 ore su 24. Questa iniziativa evidenzia la crescente necessità di soluzioni energetiche sostenibili e continue per i carichi di lavoro AI, che richiedo...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

L'AI basata su agenti spinge la domanda di CPU e chip specializzati

L'emergere dell'AI basata su agenti sta generando un'impennata nella domanda di CPU, con ricadute positive per i produttori di ASIC e chip di nicchia. Questo trend evidenzia un'evoluzione nelle esigenze hardware per i carichi di lavoro AI, spostando ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Dinamiche di Mercato e Supply Chain: Impatto sul TCO dell'AI On-Premise

I recenti risultati finanziari di Eternal Materials, trainati da rifornimento e trasferimento dei costi, evidenziano come le dinamiche della supply chain possano influenzare la disponibilità e il costo dell'hardware. Questo scenario ha implicazioni d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Geopolitica e supply chain: lezioni per l'infrastruttura AI

Le strategie delle case automobilistiche cinesi per aggirare le barriere commerciali statunitensi evidenziano la crescente influenza della geopolitica sulle catene di fornitura globali. Questo scenario offre spunti cruciali per i decision-maker tech ...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

Lisuan ottiene la certificazione WHQL per il suo chip GPU a 6nm

Il produttore cinese di GPU Lisuan ha annunciato di aver ottenuto la certificazione Microsoft WHQL per il suo chip a 6 nanometri. Questo traguardo è significativo per la compatibilità e la stabilità dei driver in ambienti Windows, un fattore cruciale...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Samsung accelera Pyeongtaek per la produzione di memoria HBM4 per l'AI

Samsung sta intensificando lo sviluppo dei suoi impianti di produzione a Pyeongtaek. L'obiettivo è accelerare la transizione verso la memoria HBM4, cruciale per soddisfare la crescente domanda di soluzioni di memoria ad alte prestazioni nel settore d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Cadence: L'IA spinge la crescita di EDA e IP verso un solido 2026

Cadence prevede un inizio 2026 robusto, trainato dalla crescente domanda di intelligenza artificiale. L'azienda evidenzia come l'IA stia diventando un fattore cruciale per l'espansione nei settori dell'Electronic Design Automation (EDA) e dell'Intell...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Deployment On-Premise per LLM: Sfide, Opportunità e Sovranità dei Dati

L'adozione di Large Language Models (LLM) in ambito aziendale solleva questioni cruciali relative al deployment. Questo articolo esplora le considerazioni chiave per le organizzazioni che valutano soluzioni on-premise, analizzando i trade-off tra con...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

La domanda di AI spinge Cadence: un inizio 2026 da record

Cadence Design Systems registra un forte avvio verso il 2026, alimentato da una domanda senza precedenti per soluzioni basate sull'intelligenza artificiale e un backlog record. Questo scenario evidenzia la crescente necessità di infrastrutture hardwa...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Chip AI: il testing complesso spinge la domanda nella supply chain

La crescente complessità nel testing dei chip AI sta generando un aumento della domanda per le probe card e per l'intera catena di fornitura a monte. Questo fenomeno potrebbe influenzare i costi e la disponibilità dell'hardware essenziale per i deplo...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

DeepSeek V4 e il divario AI: le sfide tra USA e Cina per i chip

DeepSeek V4 non ha colmato il divario di performance, evidenziando la persistente divisione nell'ambito dell'intelligenza artificiale tra Stati Uniti e Cina. Questa situazione è aggravata dalle restrizioni sui chip, che influenzano la disponibilità d...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Navigazione AI e Sovranità dei Dati: Le Implicazioni per le Aziende

L'analisi della navigazione basata su intelligenza artificiale evidenzia l'importanza cruciale del controllo sui dati. Per le aziende che adottano soluzioni AI, la gestione on-premise dei modelli e dei dati diventa un fattore determinante per garanti...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 ServeTheHome

Cluster AI da 8x NVIDIA GB10: Efficienza Energetica e Scaling On-Premise

Un nuovo cluster AI basato su otto unità NVIDIA GB10 dimostra come sia possibile ottenere capacità di scaling significative con un consumo energetico relativamente contenuto. Questa architettura evidenzia il potenziale delle soluzioni on-premise per ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 The Register AI

Core Scientific: da mining Bitcoin a datacenter AI da 1.5 GW in Texas

Core Scientific ha annunciato la conversione di un impianto di mining Bitcoin da 300 megawatt a Pecos, Texas, in un campus di datacenter AI da 1.5 gigawatt. Questa mossa strategica riflette un crescente interesse nel settore dell'intelligenza artific...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 Tom's Hardware

Attacco a impianto PCB strategico: rischio per la supply chain tech globale

Un attacco a un impianto che fornisce il 70% della base globale di PCB critici, attribuito a un'azione iraniana, minaccia di aggravare le interruzioni nella supply chain elettronica. Questo evento sottolinea la vulnerabilità delle infrastrutture prod...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 The Next Web

Google DeepMind apre il suo primo campus AI globale a Seoul

Google DeepMind ha annunciato l'apertura del suo primo campus globale dedicato all'intelligenza artificiale a Seoul, in Corea del Sud. L'accordo, siglato da Demis Hassabis con il Presidente Lee Jae Myung e il Ministero della Scienza e dell'ICT, preve...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 IEEE Spectrum

Modellazione e Simulazione Avanzata per i Sistemi Energetici Moderni

Un webinar esplora le metodologie di modellazione e simulazione per i sistemi energetici, coprendo diverse scale temporali, dall'analisi quasi-statica 8760 agli studi EMT. Vengono approfondite la costruzione programmatica di reti, la modellazione mul...

#LLM On-Premise #DevOps
2026-04-27 DigiTimes

Ottiche Co-Packaged: la svolta per la connettività nei data center AI

L'integrazione di ottiche Co-Packaged (CPO) rappresenta un cambiamento fondamentale nella connettività dei data center dedicati all'intelligenza artificiale. Questa tecnicia promette di affrontare le crescenti esigenze di larghezza di banda e di effi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 The Next Web

Atech raccoglie capitali per la "vibe-engineering" hardware basata su AI

La startup danese Atech ha chiuso un round di finanziamento pre-seed, con il sostegno di investitori di spicco come Sequoia e Andreessen Horowitz. L'azienda mira a rivoluzionare lo sviluppo hardware, consentendo agli utenti di generare prototipi funz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 DigiTimes

OpenAI esplora la filiera Apple per l'espansione hardware

OpenAI starebbe valutando una collaborazione con fornitori chiave di Apple, tra cui MediaTek, Qualcomm e Luxshare, per potenziare le proprie iniziative hardware. L'indiscrezione, riportata dall'analista Ming-Chi Kuo, suggerisce un'espansione strategi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 DigiTimes

Rapidtek rafforza la sua infrastruttura IoT con il secondo CubeSat in orbita

L'azienda taiwanese Rapidtek ha stabilito con successo il collegamento con il suo secondo CubeSat dedicato all'Internet of Things (IoT) in orbita. Questo traguardo sottolinea l'espansione delle capacità di connettività satellitare per l'IoT, offrendo...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

HCL-Foxconn e CTCI: un nuovo impianto OSAT in India per la filiera dei chip

La joint venture tra HCL e Foxconn ha selezionato l'azienda taiwanese CTCI per la costruzione di un impianto OSAT (Outsourced Semiconductor Assembly and Test) in India. Questa iniziativa strategica mira a rafforzare la capacità produttiva di semicond...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

La catena di fornitura di Taiwan: pilastro insostituibile per l'hardware AI

La crescente domanda di hardware per l'intelligenza artificiale evidenzia la centralità della catena di fornitura di Taiwan. Questa dipendenza strategica impone considerazioni cruciali per le aziende che pianificano deployment on-premise di LLM, infl...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Naver Cloud e HanmiGlobal: l'espansione globale dei data center per l'AI

Naver Cloud e HanmiGlobal hanno annunciato un'espansione congiunta dei loro data center a livello globale. Questa mossa strategica si inserisce nel contesto della crescente competizione per l'infrastruttura AI, evidenziando la necessità di risorse co...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Corea del Sud e Vietnam: alleanza strategica per tech e supply chain globali

Corea del Sud e Vietnam stanno intensificando la loro collaborazione nei settori della tecnicia e delle catene di approvvigionamento. Questa mossa strategica, intrapresa in un periodo di incertezza globale, mira a rafforzare la resilienza infrastrutt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 The Register AI

Google Cloud Next: l'AI è ormai al centro di ogni strategia tecnicica

L'ultima edizione di Google Cloud Next ha confermato una tendenza inequivocabile: l'intelligenza artificiale è diventata il fulcro di quasi ogni innovazione tecnicica. Questo posizionamento dominante dell'AI solleva questioni cruciali per le aziende ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 DigiTimes

Cerebras verso l'IPO: innovazione nei chip AI e partnership G42

Cerebras, azienda specializzata in chip per l'intelligenza artificiale, ha avviato il processo per la quotazione in borsa. Questa mossa segue un'importante innovazione nel settore dei chip AI e si consolida con una partnership strategica con G42, des...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 DigiTimes

Wi-Fi 7 accelera il networking: impatto su infrastrutture e AI on-premise

Le aziende taiwanesi del settore networking prevedono una crescita significativa nel secondo trimestre, trainata dall'adozione del Wi-Fi 7. Questa evoluzione tecnicica, con le sue promesse di maggiore throughput e minore latenza, è cruciale per le in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 The Next Web

Sequoia e i Mac Mini: un impulso all'AI on-premise oltre gli investimenti

Sequoia Capital ha distribuito 200 Mac Mini personalizzati ai partecipanti dell'evento "AI at the Frontier". L'iniziativa, promossa da Alfred Lin, uno dei responsabili di Sequoia, mira a stimolare progetti AI che esulano dai tradizionali schemi di in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 Tom's Hardware

DeepSeek V4: un LLM da 1.6 trilioni di parametri su chip Huawei, tra accuse USA

DeepSeek ha rilasciato la versione V4 del suo Large Language Model, caratterizzato da 1.6 trilioni di parametri e sviluppato su chip Huawei. Questo annuncio giunge mentre il governo statunitense intensifica le accuse di furto di proprietà intellettua...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 Tom's Hardware

L'onda dell'AI spinge Taiwan: capitalizzazione record e il ruolo di TSMC

Il mercato azionario di Taiwan ha superato quello del Regno Unito, nonostante un'economia significativamente più piccola. Questo sorpasso è trainato dal boom dell'intelligenza artificiale, con TSMC che da sola contribuisce a oltre il 40% del valore t...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 TechCrunch AI

Maine: il governatore pone il veto alla moratoria sui data center

Il governatore del Maine ha respinto la proposta di legge L.D. 307, che avrebbe istituito la prima moratoria statale negli Stati Uniti sulla costruzione di nuovi data center fino al 1° novembre 2027. Questa decisione ha implicazioni significative per...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 The Next Web

Oracle finanzia il mega data center con un bond da 16,3 miliardi di dollari

Oracle ha ottenuto un finanziamento di 16,3 miliardi di dollari per un singolo campus di data center nel Michigan, il più grande pacchetto di debito tecnicico mai assemblato per una singola struttura. PIMCO ha sottoscritto circa 10 miliardi di dollar...

#Hardware #LLM On-Premise #DevOps
2026-04-25 The Next Web

Dall'intelligenza web all'AI: le sfide infrastrutturali emergenti

L'industria dell'intelligenza web, pilastro dello sviluppo basato sui dati, affronta nuove sfide infrastrutturali. Con la crescita esponenziale dei big data e i progressi dell'AI, garantire un flusso dati sostenuto e un'infrastruttura adeguata divent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 DigiTimes

Qualcomm e MediaTek: la spinta all'AI di una startup taiwanese per l'Edge

Una startup taiwanese, supportata da giganti del silicio come Qualcomm e MediaTek, sta emergendo come attore chiave nell'ecosistema dell'AI per l'edge. La collaborazione mira a definire uno strato software standard per l'inference AI su hardware loca...

#Hardware #LLM On-Premise #DevOps
2026-04-24 The Register AI

DeepSeek V4: LLM open weights ottimizzato per acceleratori Huawei Ascend

DeepSeek ha presentato V4, un nuovo Large Language Model a pesi aperti che promette prestazioni elevate e una significativa riduzione dei costi di inference. Il modello si distingue per il supporto esteso alla famiglia di acceleratori AI Ascend di Hu...

#Hardware #LLM On-Premise #DevOps
2026-04-24 The Next Web

La quota del governo USA in Intel balza a 36 miliardi: l'impatto del CHIPS Act

Il governo degli Stati Uniti ha visto il valore della sua partecipazione del 9,9% in Intel salire a circa 36 miliardi di dollari. Acquisita per 8,9 miliardi lo scorso agosto tramite la conversione di fondi del CHIPS Act e Secure Enclave in azioni a 2...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Tom's Hardware

NEO Semiconductor: 3D X-DRAM validata, un'alternativa HBM per i processori AI

NEO Semiconductor ha validato il proof-of-concept della sua 3D X-DRAM, una memoria innovativa per processori AI. L'azienda ha ottenuto finanziamenti per sviluppare ulteriormente questa tecnicia, che si posiziona come un'alternativa ad alte prestazion...

#Hardware #LLM On-Premise #DevOps
2026-04-24 ServeTheHome

Meta acquisisce milioni di core AWS Graviton per l'AI

Meta ha annunciato l'acquisto di decine di milioni di core CPU AWS Graviton basati su architettura Arm. Questa mossa strategica mira a potenziare il proprio portfolio di calcolo per l'intelligenza artificiale "agentica", evidenziando la crescente dom...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Next Web

Intel supera le attese per il sesto trimestre: la domanda AI traina i CPU

Intel ha registrato un primo trimestre eccezionale, superando le aspettative per il sesto periodo consecutivo. I ricavi totali hanno raggiunto 13,6 miliardi di dollari, superando il consenso del 9,4%. La divisione Data Centre e AI ha visto un increme...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Hon Hai e Mitsubishi Electric: intesa per l'automotive

Hon Hai (Foxconn) e Mitsubishi Electric hanno siglato un Memorandum d'Intesa per una joint venture nel settore delle apparecchiature automobilistiche. Questa collaborazione evidenzia la crescente integrazione tra tecnicia e industria, un trend che im...

#Hardware #LLM On-Premise #DevOps
2026-04-24 Tom's Hardware

SoftBank e Intel sviluppano ZAM, una memoria a basso consumo per l'AI

Una sussidiaria di SoftBank, in collaborazione con Intel, sta sviluppando ZAM, una nuova tecnicia di memoria progettata per le esigenze dei carichi di lavoro AI. L'obiettivo è offrire un'alternativa a basso consumo energetico rispetto alle memorie HB...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

DeepSeek V4 e l'integrazione Huawei: un segnale per lo stack AI cinese

DeepSeek ha presentato i suoi modelli V4, caratterizzati da una significativa integrazione con le tecnicie Huawei. Questa mossa indica una potenziale ridefinizione dello stack tecnicico per l'intelligenza artificiale in Cina, con implicazioni per l'a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Google specializza i chip TPU per training e inference AI

Google ha annunciato la specializzazione dei suoi chip TPU, distinguendo versioni ottimizzate per il training e per l'inference dei modelli AI. Questa mossa riflette una tendenza del settore verso infrastrutture AI dedicate, con implicazioni signific...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Crisi nell'approvvigionamento di PCB per l'AI: margini sotto pressione

Il settore dell'intelligenza artificiale si trova ad affrontare una crescente pressione sui margini di profitto a causa di una crisi nell'approvvigionamento di Printed Circuit Boards (PCB). L'aumento dei costi dei materiali e dell'energia sta impatta...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

SMIC rientra nel packaging avanzato per potenziare la strategia sui chip AI

SMIC sta rafforzando la sua strategia sui chip AI, rientrando nel settore del packaging avanzato e ampliando il proprio team. Questa mossa sottolinea l'importanza crescente delle tecnicie di integrazione avanzata per le performance dei processori ded...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Taiwan spinge sull'infrastruttura AI: Foxconn presenta una proposta

Il Ministero degli Affari Digitali di Taiwan (MODA) sta incoraggiando le aziende locali a investire in potenza di calcolo per l'intelligenza artificiale. In questo contesto, Foxconn ha già presentato una proposta di progetto, segnalando un crescente ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Il ritorno della CPU nell'AI: Intel e la diversificazione hardware

Intel evidenzia un crescente ritorno delle CPU a un ruolo centrale nell'AI, affiancato da una domanda in aumento per gli ASIC. Questo scenario indica una diversificazione delle architetture hardware, dove le aziende cercano soluzioni ottimizzate per ...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Taiwan punta a rafforzare la filiera dei droni entro il 2027

Taiwan ha annunciato un piano strategico per colmare le lacune nella propria filiera di produzione dei droni entro il 2027. L'iniziativa riflette una crescente attenzione globale verso la sovranità tecnicica e la resilienza delle catene di approvvigi...

#LLM On-Premise #DevOps
2026-04-24 DigiTimes

Intel e il rilancio delle CPU nell'era dell'AI: una ripresa in fase iniziale

Intel sta registrando una ripresa nel settore delle CPU, trainata in particolare dall'integrazione delle capacità di intelligenza artificiale. Questo segnale, sebbene ancora nelle fasi iniziali, evidenzia l'importanza crescente dell'AI nel ridisegnar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Intel punta sulle CPU come pilastro della crescita AI

Intel sta rafforzando la sua strategia nel campo dell'intelligenza artificiale, posizionando le CPU come componente fondamentale per l'espansione e l'adozione delle tecnicie AI. Questa mossa sottolinea il ruolo persistente dei processori generici in ...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Largan e Sunny Optical puntano a FAU per ottiche AI e Co-Packaged Optics

Le aziende Largan e Sunny Optical stanno intensificando gli sforzi nello sviluppo di unità ottiche a forma libera (FAU), fondamentali per l'avanzamento delle ottiche dedicate all'intelligenza artificiale e delle tecnicie Co-Packaged Optics (CPO). Que...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

Meta taglia 8.000 posti per finanziare l'infrastruttura AI

Meta ha annunciato una riorganizzazione significativa che prevede il taglio di circa 8.000 dipendenti, pari al 10% della sua forza lavoro, a partire dal 20 maggio, con ulteriori riduzioni previste per la seconda metà del 2026. La mossa, che include l...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Google AI Blog

Le TPU di Google affrontano i carichi AI più esigenti

Google ha sviluppato le sue Tensor Processing Units (TPU) per accelerare i carichi di lavoro di intelligenza artificiale, sempre più complessi. Queste unità specializzate sono cruciali per gestire le crescenti richieste di training e inference dei La...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

Microreattori nucleari: il Pentagono accelera il deployment nelle basi USA

Il programma ANPI del Pentagono ha selezionato tre aziende per il deployment di microreattori nucleari presso la Buckley Space Force Base e la Malmstrom Air Force Base entro il 2030. L'iniziativa, partita con otto fornitori, mira a rafforzare la resi...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Register AI

Datadog introduce il monitoraggio GPU per ottimizzare i costi AI

Datadog ha esteso le capacità della sua piattaforma di osservabilità, integrando il monitoraggio delle GPU. Questa novità offre alle aziende che gestiscono carichi di lavoro AI strumenti essenziali per analizzare l'efficienza e l'utilizzo del loro ha...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Register AI

L'AI assorbe chip cruciali: a rischio le consegne di server tradizionali

La crescente domanda di soluzioni AI sta creando una nuova ondata di carenza di chip, colpendo componenti essenziali per i server generici. I fornitori stanno dirottando la capacità produttiva verso prodotti AI a più alto margine, mettendo a rischio ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Register AI

Tesla scommette sul processo 14A di Intel per i chip AI, ancora in sviluppo

Elon Musk ha annunciato l'intenzione di Tesla di produrre chip AI proprietari, affidandosi al processo produttivo 14A di Intel. Questa decisione rappresenta una scommessa significativa, dato che la tecnicia 14A è ancora in fase di sviluppo e non è an...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Tom's Hardware

Nvidia H200: Blocco delle vendite in Cina e la spinta all'industria locale

La Segretaria al Commercio degli Stati Uniti ha confermato che le GPU Nvidia H200 non sono state vendute alla Cina. Questa mossa riflette le restrizioni imposte dal governo cinese, volte a stimolare lo sviluppo della propria industria dei semicondutt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SpaceX e Tesla: strategie hardware tra GPU e chip custom

SpaceX esplora l'espansione delle capacità GPU, mentre Tesla si affida a Samsung per l'aggiornamento dei chip. Queste mosse evidenziano la crescente importanza del controllo sull'hardware e della capacità di calcolo per le aziende tech, influenzando ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Next Web

Tesla alza a 25 miliardi di dollari il CapEx per il 2026

Tesla ha rivisto al rialzo la sua previsione di spesa in conto capitale (CapEx) per il 2026, portandola a 25 miliardi di dollari, un aumento di 5 miliardi rispetto alla stima precedente. Nonostante il CFO abbia anticipato un flusso di cassa negativo ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SaiMemory, NEDO e Intel: la memoria ZAM di nuova generazione per l'AI

SaiMemory ha ottenuto il sostegno di NEDO e stretto una partnership con Intel per lo sviluppo della memoria ZAM di prossima generazione. Questa tecnicia mira a superare i limiti delle attuali soluzioni di memoria, offrendo un potenziale significativo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Transizione AI e costi: i brand PC verso tagli occupazionali nel 2026

Un'analisi di DIGITIMES prevede che i brand di PC dovranno affrontare tagli occupazionali nel 2026, a causa dei profondi cambiamenti indotti dall'intelligenza artificiale e dall'aumento dei costi operativi. Questo scenario evidenzia una ridefinizione...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Volkswagen: EV, AI e riassetto produttivo in vista del Salone di Pechino

Volkswagen ha delineato piani ambiziosi per il futuro, concentrandosi sullo sviluppo di veicoli elettrici (EV) e sull'integrazione dell'intelligenza artificiale (AI). Queste strategie includono anche un riassetto della capacità produttiva, con annunc...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SK Hynix: oltre metà della produzione NAND dedicata ai chip a 321 strati

SK Hynix ha annunciato un significativo riorientamento della sua produzione di memoria NAND, destinando oltre la metà del volume ai nuovi chip a 321 strati. Questa mossa strategica sottolinea l'impegno dell'azienda verso l'innovazione nella densità d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Tesla punta su AI e automazione con un investimento da 25 miliardi di dollari

Tesla ha annunciato un significativo investimento di 25 miliardi di dollari, segnando una chiara direzione strategica verso l'intelligenza artificiale e l'automazione. Questa mossa riflette la crescente importanza di queste tecnicie per l'innovazione...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Texas Instruments: ripresa robusta grazie a domanda industriale e AI

Texas Instruments prevede una ripresa economica più marcata, trainata in particolare dalla crescente domanda nei settori industriale e dell'intelligenza artificiale. Questa tendenza evidenzia il ruolo cruciale dei semiconduttori nell'innovazione tecn...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

La domanda di AI rafforza il ciclo delle apparecchiature per semiconduttori

L'industria dei semiconduttori sta vivendo una ripresa, guidata in particolare dalla crescente domanda di intelligenza artificiale. Questo trend sta rafforzando il ciclo delle apparecchiature di produzione, con aziende come Lam Research che beneficia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Lam Research: l'AI sostiene la domanda di apparecchiature per semiconduttori

Lam Research ha segnalato un persistente slancio guidato dall'intelligenza artificiale, che si traduce in un miglioramento delle prospettive per il settore delle apparecchiature per la fabbricazione di wafer (WFE). Questo trend sottolinea la crescent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

TSMC punta al 2029 per i nodi A13 e A12, pilastri dei futuri chip AI

TSMC, leader mondiale nella produzione di semiconduttori, ha fissato il 2029 come obiettivo per l'avvio della produzione dei suoi prossimi nodi tecnicici A13 e A12. Questi processi produttivi avanzati sono destinati a diventare la base per la prossim...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SK Hynix potenzia la produzione di HBM per l'AI con un nuovo hub a Cheongju

SK Hynix sta costruendo un nuovo centro di packaging per memorie HBM a Cheongju, Corea del Sud. L'iniziativa mira a espandere significativamente la capacità produttiva di memorie ad alta larghezza di banda, essenziali per alimentare la crescente doma...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Pegatron: la leadership Apple non incide sulla supply chain

Il presidente di Pegatron ha dichiarato che i recenti cambiamenti nella leadership di Apple non avranno ripercussioni sui legami della supply chain. Questa stabilità è cruciale per le aziende che pianificano investimenti in infrastrutture tecniciche,...

#Hardware #LLM On-Premise #DevOps
2026-04-23 TechCrunch AI

Tesla aumenta il CapEx a 25 miliardi di dollari: impatto sul flusso di cassa

Tesla ha annunciato un aumento significativo del suo CapEx, prevedendo di raggiungere 25 miliardi di dollari nel 2026, una cifra tre volte superiore alla spesa storica. Questa strategia, secondo il CFO, comporterà un flusso di cassa libero negativo p...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

SpaceX: i data center orbitali per l'AI tra ambizione e rischi nel dossier IPO

Il dossier S-1 pre-IPO di SpaceX rivela che i piani per i data center AI orbitali presentano "significativa complessità tecnica e tecnicie non collaudate", con il rischio di non raggiungere la viabilità commerciale. Questa dichiarazione contrasta con...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ServeTheHome

Google presenta le nuove TPU 8i e 8t per inference e training AI

Google ha annunciato le sue nuove unità di elaborazione tensoriale (TPU) di ottava generazione, la TPU 8i e la TPU 8t. Progettate rispettivamente per l'inference e il training di modelli di intelligenza artificiale, queste soluzioni proprietarie mira...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

Google Cloud potenzia l'offerta AI con nuovi chip: la sfida a Nvidia continua

Google Cloud ha introdotto due nuovi chip AI, le Tensor Processing Unit (TPU), che promettono prestazioni superiori e costi inferiori rispetto alle generazioni precedenti. Questa mossa intensifica la competizione nel mercato degli acceleratori AI, tr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Ars Technica AI

Google presenta i nuovi TPU di ottava generazione per l'era degli agenti AI

Google ha svelato la sua ottava generazione di Tensor Processing Units (TPU), distaccandosi dall'adozione prevalente di acceleratori Nvidia. Questi nuovi chip, denominati TPU 8t per il training e TPU 8i per l'inference, sono progettati per l'emergent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

Google ridefinisce i TPU: architetture separate per training e inference

Google ha annunciato la disponibilità generale della sua settima generazione di TPU, Ironwood, e ha svelato l'ottava, composta da TPU 8t (per il training) e TPU 8i (per l'inference). Questa nuova strategia prevede chip dedicati, progettati rispettiva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Dinamiche di mercato e supply chain: l'impatto sull'infrastruttura AI

Un recente commento di mercato evidenzia come i potenziali cambiamenti strategici in attori chiave del settore tech possano generare incertezza nella supply chain globale. Queste dinamiche hanno implicazioni dirette per le organizzazioni che pianific...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Produttore cinese di PCB legato a Nvidia: debutto in borsa e spinta sull'AI

Un produttore cinese di circuiti stampati (PCB), con legami con Nvidia, ha registrato un forte aumento del valore delle sue azioni al debutto sulla borsa di Hong Kong. L'azienda ha annunciato piani strategici per espandere le proprie attività nel set...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Fornitori di Taiwan e l'onda dell'innovazione hardware per l'AI

I fornitori taiwanesi anticipano un rinnovato impulso all'innovazione, con implicazioni significative per l'hardware AI. Questo trend è cruciale per le aziende che valutano strategie di deployment on-premise per i Large Language Models, influenzando ...

#Hardware #Fine-Tuning
← Torna ai Topic