Topic / Trend Rising

Evoluzione dell'Hardware e dell'Framework AI

La domanda incessante di AI sta guidando investimenti massicci in chip specializzati (TPU, HBM, silicio custom), data center e raffreddamento avanzato. Si osserva una forte spinta verso soluzioni AI on-premise ed edge per gestire costi e sovranità dei dati.

Detected: 2026-04-27 · Updated: 2026-04-27

Articoli Correlati

2026-04-27 DigiTimes

OpenAI esplora la filiera Apple per l'espansione hardware

OpenAI starebbe valutando una collaborazione con fornitori chiave di Apple, tra cui MediaTek, Qualcomm e Luxshare, per potenziare le proprie iniziative hardware. L'indiscrezione, riportata dall'analista Ming-Chi Kuo, suggerisce un'espansione strategi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 DigiTimes

HCL-Foxconn e CTCI: un nuovo impianto OSAT in India per la filiera dei chip

La joint venture tra HCL e Foxconn ha selezionato l'azienda taiwanese CTCI per la costruzione di un impianto OSAT (Outsourced Semiconductor Assembly and Test) in India. Questa iniziativa strategica mira a rafforzare la capacità produttiva di semicond...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

La catena di fornitura di Taiwan: pilastro insostituibile per l'hardware AI

La crescente domanda di hardware per l'intelligenza artificiale evidenzia la centralità della catena di fornitura di Taiwan. Questa dipendenza strategica impone considerazioni cruciali per le aziende che pianificano deployment on-premise di LLM, infl...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

AI nei cockpit intelligenti: la sfida del valore reale e del deployment edge

L'integrazione dell'intelligenza artificiale nei cockpit intelligenti rappresenta una delle prossime grandi sfide tecniciche. La questione centrale non è solo la fattibilità tecnica, ma la capacità dell'AI di generare un valore tangibile e misurabile...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Naver Cloud e HanmiGlobal: l'espansione globale dei data center per l'AI

Naver Cloud e HanmiGlobal hanno annunciato un'espansione congiunta dei loro data center a livello globale. Questa mossa strategica si inserisce nel contesto della crescente competizione per l'infrastruttura AI, evidenziando la necessità di risorse co...

#Hardware #LLM On-Premise #DevOps
2026-04-26 DigiTimes

Wi-Fi 7 accelera il networking: impatto su infrastrutture e AI on-premise

Le aziende taiwanesi del settore networking prevedono una crescita significativa nel secondo trimestre, trainata dall'adozione del Wi-Fi 7. Questa evoluzione tecnicica, con le sue promesse di maggiore throughput e minore latenza, è cruciale per le in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 The Next Web

Sequoia e i Mac Mini: un impulso all'AI on-premise oltre gli investimenti

Sequoia Capital ha distribuito 200 Mac Mini personalizzati ai partecipanti dell'evento "AI at the Frontier". L'iniziativa, promossa da Alfred Lin, uno dei responsabili di Sequoia, mira a stimolare progetti AI che esulano dai tradizionali schemi di in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-26 Tom's Hardware

L'onda dell'AI spinge Taiwan: capitalizzazione record e il ruolo di TSMC

Il mercato azionario di Taiwan ha superato quello del Regno Unito, nonostante un'economia significativamente più piccola. Questo sorpasso è trainato dal boom dell'intelligenza artificiale, con TSMC che da sola contribuisce a oltre il 40% del valore t...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 TechCrunch AI

Maine: il governatore pone il veto alla moratoria sui data center

Il governatore del Maine ha respinto la proposta di legge L.D. 307, che avrebbe istituito la prima moratoria statale negli Stati Uniti sulla costruzione di nuovi data center fino al 1° novembre 2027. Questa decisione ha implicazioni significative per...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-25 The Next Web

Oracle finanzia il mega data center con un bond da 16,3 miliardi di dollari

Oracle ha ottenuto un finanziamento di 16,3 miliardi di dollari per un singolo campus di data center nel Michigan, il più grande pacchetto di debito tecnicico mai assemblato per una singola struttura. PIMCO ha sottoscritto circa 10 miliardi di dollar...

#Hardware #LLM On-Premise #DevOps
2026-04-25 The Next Web

Dall'intelligenza web all'AI: le sfide infrastrutturali emergenti

L'industria dell'intelligenza web, pilastro dello sviluppo basato sui dati, affronta nuove sfide infrastrutturali. Con la crescita esponenziale dei big data e i progressi dell'AI, garantire un flusso dati sostenuto e un'infrastruttura adeguata divent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Next Web

La quota del governo USA in Intel balza a 36 miliardi: l'impatto del CHIPS Act

Il governo degli Stati Uniti ha visto il valore della sua partecipazione del 9,9% in Intel salire a circa 36 miliardi di dollari. Acquisita per 8,9 miliardi lo scorso agosto tramite la conversione di fondi del CHIPS Act e Secure Enclave in azioni a 2...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Register AI

Ubuntu 26.04 LTS: più strumenti per GPGPU e AI, addio a Xorg su Desktop

Canonical ha rilasciato Ubuntu 26.04 "Resolute Raccoon", la nuova versione LTS. Questa release integra GNOME 50 e il kernel Linux 7.0, eliminando Xorg dall'installazione desktop a favore di Xwayland per le applicazioni X11. Un focus significativo è p...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 TechCrunch AI

Mac mini esauriti: la domanda di AI locale spinge i prezzi su eBay

La crescente domanda per l'esecuzione di modelli AI e strumenti in locale ha portato all'esaurimento dei Mac mini di Apple. Questa carenza ha innescato un mercato secondario su eBay, dove i dispositivi sono offerti a prezzi maggiorati, evidenziando l...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Tom's Hardware

NEO Semiconductor: 3D X-DRAM validata, un'alternativa HBM per i processori AI

NEO Semiconductor ha validato il proof-of-concept della sua 3D X-DRAM, una memoria innovativa per processori AI. L'azienda ha ottenuto finanziamenti per sviluppare ulteriormente questa tecnicia, che si posiziona come un'alternativa ad alte prestazion...

#Hardware #LLM On-Premise #DevOps
2026-04-24 TechCrunch AI

Nothing presenta uno strumento di dettatura AI on-device

Nothing ha lanciato un nuovo strumento di dettatura basato su intelligenza artificiale, progettato per operare direttamente sul dispositivo. La soluzione supporta oltre cento lingue, evidenziando un approccio che privilegia l'elaborazione locale risp...

#Hardware #LLM On-Premise #DevOps
2026-04-24 ServeTheHome

Meta acquisisce milioni di core AWS Graviton per l'AI

Meta ha annunciato l'acquisto di decine di milioni di core CPU AWS Graviton basati su architettura Arm. Questa mossa strategica mira a potenziare il proprio portfolio di calcolo per l'intelligenza artificiale "agentica", evidenziando la crescente dom...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 The Next Web

Intel supera le attese per il sesto trimestre: la domanda AI traina i CPU

Intel ha registrato un primo trimestre eccezionale, superando le aspettative per il sesto periodo consecutivo. I ricavi totali hanno raggiunto 13,6 miliardi di dollari, superando il consenso del 9,4%. La divisione Data Centre e AI ha visto un increme...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Tom's Hardware

SoftBank e Intel sviluppano ZAM, una memoria a basso consumo per l'AI

Una sussidiaria di SoftBank, in collaborazione con Intel, sta sviluppando ZAM, una nuova tecnicia di memoria progettata per le esigenze dei carichi di lavoro AI. L'obiettivo è offrire un'alternativa a basso consumo energetico rispetto alle memorie HB...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Google specializza i chip TPU per training e inference AI

Google ha annunciato la specializzazione dei suoi chip TPU, distinguendo versioni ottimizzate per il training e per l'inference dei modelli AI. Questa mossa riflette una tendenza del settore verso infrastrutture AI dedicate, con implicazioni signific...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Liteon punta sull'Edge AI per il rilancio strategico entro il 2026

Liteon sta riorientando la sua piattaforma di startup verso l'ecosistema dell'Edge AI, con l'obiettivo di un significativo rilancio della crescita entro il 2026. Questa mossa strategica sottolinea l'importanza crescente delle soluzioni di intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

SMIC rientra nel packaging avanzato per potenziare la strategia sui chip AI

SMIC sta rafforzando la sua strategia sui chip AI, rientrando nel settore del packaging avanzato e ampliando il proprio team. Questa mossa sottolinea l'importanza crescente delle tecnicie di integrazione avanzata per le performance dei processori ded...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Taiwan spinge sull'infrastruttura AI: Foxconn presenta una proposta

Il Ministero degli Affari Digitali di Taiwan (MODA) sta incoraggiando le aziende locali a investire in potenza di calcolo per l'intelligenza artificiale. In questo contesto, Foxconn ha già presentato una proposta di progetto, segnalando un crescente ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Intel e il rilancio delle CPU nell'era dell'AI: una ripresa in fase iniziale

Intel sta registrando una ripresa nel settore delle CPU, trainata in particolare dall'integrazione delle capacità di intelligenza artificiale. Questo segnale, sebbene ancora nelle fasi iniziali, evidenzia l'importanza crescente dell'AI nel ridisegnar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Intel punta sulle CPU come pilastro della crescita AI

Intel sta rafforzando la sua strategia nel campo dell'intelligenza artificiale, posizionando le CPU come componente fondamentale per l'espansione e l'adozione delle tecnicie AI. Questa mossa sottolinea il ruolo persistente dei processori generici in ...

#Hardware #LLM On-Premise #DevOps
2026-04-24 DigiTimes

Largan e Sunny Optical puntano a FAU per ottiche AI e Co-Packaged Optics

Le aziende Largan e Sunny Optical stanno intensificando gli sforzi nello sviluppo di unità ottiche a forma libera (FAU), fondamentali per l'avanzamento delle ottiche dedicate all'intelligenza artificiale e delle tecnicie Co-Packaged Optics (CPO). Que...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 DigiTimes

Cooperazione Taiwan-Corea: Nuove Alleanze per la Filiera AI e l'On-Premise

Un'intervista evidenzia l'intenzione di Taiwan e Corea del Sud di estendere la loro cooperazione tecnicica oltre il tradizionale settore della memoria, con la città di Hwaseong impegnata a espandere le alleanze. Questa strategia è cruciale per raffor...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

Mercato EV e Prezzi Carburante: Lezioni per le Strategie AI On-Premise

Il primo trimestre 2026 ha visto Tesla consegnare 358.023 veicoli, un aumento del 6% ma sotto le stime, mentre i prezzi del carburante negli Stati Uniti hanno superato i 4 dollari al gallone. Queste dinamiche di mercato, influenzate da fattori geopol...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 Google AI Blog

Le TPU di Google affrontano i carichi AI più esigenti

Google ha sviluppato le sue Tensor Processing Units (TPU) per accelerare i carichi di lavoro di intelligenza artificiale, sempre più complessi. Queste unità specializzate sono cruciali per gestire le crescenti richieste di training e inference dei La...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 Phoronix

Ubuntu 26.04 LTS: La Nuova Base per Infrastrutture AI On-Premise

Canonical ha rilasciato Ubuntu 26.04 LTS, insieme a Ubuntu Server 26.04 LTS e le sue varianti, basato sul kernel Linux 7.0. Questa versione con supporto a lungo termine rappresenta un aggiornamento significativo per le aziende che gestiscono carichi ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Register AI

Datadog introduce il monitoraggio GPU per ottimizzare i costi AI

Datadog ha esteso le capacità della sua piattaforma di osservabilità, integrando il monitoraggio delle GPU. Questa novità offre alle aziende che gestiscono carichi di lavoro AI strumenti essenziali per analizzare l'efficienza e l'utilizzo del loro ha...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Phoronix

Ubuntu 26.04 LTS: ROCm disponibile via APT, ma con versioni datate

Canonical e AMD hanno collaborato per integrare le librerie ROCm nell'archivio di Ubuntu 26.04 LTS, promettendo un'installazione semplificata per carichi di lavoro AI/ML e HPC. Tuttavia, al momento del rilascio, le versioni disponibili tramite `sudo ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 The Register AI

L'AI assorbe chip cruciali: a rischio le consegne di server tradizionali

La crescente domanda di soluzioni AI sta creando una nuova ondata di carenza di chip, colpendo componenti essenziali per i server generici. I fornitori stanno dirottando la capacità produttiva verso prodotti AI a più alto margine, mettendo a rischio ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Register AI

Tesla scommette sul processo 14A di Intel per i chip AI, ancora in sviluppo

Elon Musk ha annunciato l'intenzione di Tesla di produrre chip AI proprietari, affidandosi al processo produttivo 14A di Intel. Questa decisione rappresenta una scommessa significativa, dato che la tecnicia 14A è ancora in fase di sviluppo e non è an...

#Hardware #LLM On-Premise #DevOps
2026-04-23 Tom's Hardware

Nvidia H200: Blocco delle vendite in Cina e la spinta all'industria locale

La Segretaria al Commercio degli Stati Uniti ha confermato che le GPU Nvidia H200 non sono state vendute alla Cina. Questa mossa riflette le restrizioni imposte dal governo cinese, volte a stimolare lo sviluppo della propria industria dei semicondutt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 TechWire Asia

Google Cloud Next 2026: Nuove TPU e piattaforma per agenti AI

Google Cloud ha presentato le nuove Tensor Processing Units (TPU) di ottava generazione, TPU 8t e TPU 8i, ottimizzate per training e inference. L'azienda ha inoltre introdotto la Gemini Enterprise Agent Platform, un ambiente centralizzato per la crea...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SpaceX e Tesla: strategie hardware tra GPU e chip custom

SpaceX esplora l'espansione delle capacità GPU, mentre Tesla si affida a Samsung per l'aggiornamento dei chip. Queste mosse evidenziano la crescente importanza del controllo sull'hardware e della capacità di calcolo per le aziende tech, influenzando ...

#Hardware #LLM On-Premise #DevOps
2026-04-23 DigiTimes

SK Hynix: oltre metà della produzione NAND dedicata ai chip a 321 strati

SK Hynix ha annunciato un significativo riorientamento della sua produzione di memoria NAND, destinando oltre la metà del volume ai nuovi chip a 321 strati. Questa mossa strategica sottolinea l'impegno dell'azienda verso l'innovazione nella densità d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Texas Instruments: ripresa robusta grazie a domanda industriale e AI

Texas Instruments prevede una ripresa economica più marcata, trainata in particolare dalla crescente domanda nei settori industriale e dell'intelligenza artificiale. Questa tendenza evidenzia il ruolo cruciale dei semiconduttori nell'innovazione tecn...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

La domanda di AI rafforza il ciclo delle apparecchiature per semiconduttori

L'industria dei semiconduttori sta vivendo una ripresa, guidata in particolare dalla crescente domanda di intelligenza artificiale. Questo trend sta rafforzando il ciclo delle apparecchiature di produzione, con aziende come Lam Research che beneficia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Lam Research: l'AI sostiene la domanda di apparecchiature per semiconduttori

Lam Research ha segnalato un persistente slancio guidato dall'intelligenza artificiale, che si traduce in un miglioramento delle prospettive per il settore delle apparecchiature per la fabbricazione di wafer (WFE). Questo trend sottolinea la crescent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

TSMC punta al 2029 per i nodi A13 e A12, pilastri dei futuri chip AI

TSMC, leader mondiale nella produzione di semiconduttori, ha fissato il 2029 come obiettivo per l'avvio della produzione dei suoi prossimi nodi tecnicici A13 e A12. Questi processi produttivi avanzati sono destinati a diventare la base per la prossim...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

Google presenta i nuovi TPU 8t e 8i per carichi di lavoro AI diversificati

Google Cloud ha annunciato i nuovi processori TPU 8t e 8i, progettati per rispondere alla crescente diversificazione dei carichi di lavoro di intelligenza artificiale. Questa mossa sottolinea l'esigenza di soluzioni hardware specializzate, sia per il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 DigiTimes

SK Hynix potenzia la produzione di HBM per l'AI con un nuovo hub a Cheongju

SK Hynix sta costruendo un nuovo centro di packaging per memorie HBM a Cheongju, Corea del Sud. L'iniziativa mira a espandere significativamente la capacità produttiva di memorie ad alta larghezza di banda, essenziali per alimentare la crescente doma...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

SpaceX: i data center orbitali per l'AI tra ambizione e rischi nel dossier IPO

Il dossier S-1 pre-IPO di SpaceX rivela che i piani per i data center AI orbitali presentano "significativa complessità tecnica e tecnicie non collaudate", con il rischio di non raggiungere la viabilità commerciale. Questa dichiarazione contrasta con...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 ServeTheHome

Google presenta le nuove TPU 8i e 8t per inference e training AI

Google ha annunciato le sue nuove unità di elaborazione tensoriale (TPU) di ottava generazione, la TPU 8i e la TPU 8t. Progettate rispettivamente per l'inference e il training di modelli di intelligenza artificiale, queste soluzioni proprietarie mira...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 TechCrunch AI

Google Cloud potenzia l'offerta AI con nuovi chip: la sfida a Nvidia continua

Google Cloud ha introdotto due nuovi chip AI, le Tensor Processing Unit (TPU), che promettono prestazioni superiori e costi inferiori rispetto alle generazioni precedenti. Questa mossa intensifica la competizione nel mercato degli acceleratori AI, tr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Ars Technica AI

Google presenta i nuovi TPU di ottava generazione per l'era degli agenti AI

Google ha svelato la sua ottava generazione di Tensor Processing Units (TPU), distaccandosi dall'adozione prevalente di acceleratori Nvidia. Questi nuovi chip, denominati TPU 8t per il training e TPU 8i per l'inference, sono progettati per l'emergent...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Next Web

Google ridefinisce i TPU: architetture separate per training e inference

Google ha annunciato la disponibilità generale della sua settima generazione di TPU, Ironwood, e ha svelato l'ottava, composta da TPU 8t (per il training) e TPU 8i (per l'inference). Questa nuova strategia prevede chip dedicati, progettati rispettiva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Register AI

Grafana: assistente AI gratuito per deployment on-premise e Open Source

Grafana ha annunciato la disponibilità gratuita del suo assistente AI, rivolto specificamente agli utenti Open Source e a chi gestisce deployment on-premise. L'iniziativa, presentata durante la conferenza utente di Barcellona, rafforza l'impegno dell...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Phoronix

Intel LLM-Scaler: vLLM 0.14.0-b8.2 introduce il supporto per Arc Pro B70

L'iniziativa Intel LLM-Scaler prosegue con l'aggiornamento vLLM 0.14.0-b8.2. Questa versione introduce il supporto ufficiale per la scheda grafica Arc Pro B70, estendendo le capacità di inference AI su hardware Intel Arc. L'aggiornamento mira a ottim...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Register AI

Google accelera sull'AI: nuove TPU e Axion Arm per training e inference

Google ha svelato due nuovi acceleratori AI proprietari alla conferenza Cloud Next: uno per il training e uno per l'inference, con l'introduzione di core Axion basati su Arm. Questa mossa strategica evidenzia l'impegno di Google nello sviluppo di sil...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Tom's Hardware

AMD e l'evoluzione dell'upscaling AI: implicazioni per l'hardware locale

Il kit di sviluppo (SDK) di AMD suggerisce l'introduzione di nuovi moltiplicatori 4x e 6x per la generazione di frame basata su intelligenza artificiale (AI). Questa ottimizzazione a livello di driver evidenzia la crescente tendenza a sfruttare la po...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Register AI

Costi energetici e AI: le aziende britanniche delocalizzano i carichi di lavoro

Un quinto delle aziende del Regno Unito ha già spostato i propri carichi di lavoro AI all'estero, spinto dagli elevati costi energetici. Questa tendenza, che va oltre la tradizionale delocalizzazione dei call center, solleva preoccupazioni per il gov...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 DigiTimes

Fornitori di Taiwan e l'onda dell'innovazione hardware per l'AI

I fornitori taiwanesi anticipano un rinnovato impulso all'innovazione, con implicazioni significative per l'hardware AI. Questo trend è cruciale per le aziende che valutano strategie di deployment on-premise per i Large Language Models, influenzando ...

#Hardware #Fine-Tuning
2026-04-21 The Register AI

Monitoraggio CPU: L'Eredità di Task Manager e le Sfide On-Premise

Il misuratore CPU del Task Manager, basato su semplici chiamate kernel, rappresenta un'epoca passata. Oggi, per i deployment on-premise di Large Language Models, è indispensabile un monitoraggio hardware granulare che vada oltre la CPU, includendo VR...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

Dinamiche Geopolitiche e Autonomia Digitale: Il Ruolo del Self-Hosted AI

Le recenti misure geopolitiche e l'affermazione di obiettivi economici indipendenti, come riportato da DIGITIMES, sottolineano l'importanza della sovranità e del controllo. Questo contesto si riflette nel settore tecnicico, dove le aziende valutano s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

L'AI Spinge la Memoria: i Ricavi ASML da HBM Superano la Logica nel 1Q26

Nel primo trimestre 2026, i ricavi di ASML derivanti dalla memoria hanno superato quelli dalla logica, un segnale della crescente domanda di High Bandwidth Memory (HBM) alimentata dall'intelligenza artificiale. Questa tendenza evidenzia l'impatto del...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

Collaborazione strategica per potenziare i deployment LLM on-premise

Esperti del settore sollecitano una maggiore collaborazione tra aziende, istituzioni e governi per accelerare lo sviluppo e l'adozione di infrastrutture LLM self-hosted. L'obiettivo è rafforzare la sovranità dei dati, ottimizzare il TCO e garantire u...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 DigiTimes

Google e la corsa ai chip AI: la nuova fase della sfida con Nvidia

Google intensifica lo sviluppo dei propri chip AI, puntando a capitalizzare l'espansione dell'inference. Questa mossa segna una nuova fase nella competizione con Nvidia, evidenziando l'importanza di soluzioni hardware dedicate per i carichi di lavoro...

#Hardware #LLM On-Premise #DevOps
2026-04-21 DigiTimes

La domanda di AI spinge le valutazioni del silicio: impatto su TSMC e Nvidia

L'esplosione della domanda di intelligenza artificiale sta esercitando una pressione significativa sulla supply chain del silicio, influenzando le valutazioni di giganti come TSMC e Nvidia. Questo scenario pone nuove sfide per le aziende che valutano...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Phoronix

AMD GAIA: agenti AI portatili per deployment locali

AMD potenzia GAIA, la sua soluzione software cross-platform basata su Lemonade SDK, per l'esecuzione di agenti AI locali su hardware AMD (CPU, GPU, NPU). L'ultimo aggiornamento introduce la portabilità degli agenti AI personalizzati, facilitando l'im...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

Il percorso di Amazon nei chip: Trainium e i clienti AI di punta

Amazon ha investito per oltre un decennio nello sviluppo di chip proprietari, culminato con Trainium. Questa analisi rivela come Anthropic e OpenAI siano emersi come i principali clienti di questa tecnicia, evidenziando la crescente adozione di hardw...

#Hardware #LLM On-Premise #DevOps
2026-04-20 DigiTimes

Vivo e la spinta all'AI on-device: implicazioni per l'edge computing

Vivo rafforza la sua offerta di fascia alta a Taiwan con la nuova serie X300, puntando a una crescita del 40% nelle vendite. Questo movimento di mercato evidenzia la crescente importanza dei dispositivi mobili avanzati, piattaforme sempre più capaci ...

#Hardware #LLM On-Premise #DevOps
2026-04-20 DigiTimes

Samsung migliora la produzione HBM4: Nvidia apprezza l'innovazione a 4nm

Samsung ha registrato progressi significativi nella produzione di memoria HBM4, un componente cruciale per gli acceleratori AI di prossima generazione. L'azienda ha anche implementato un aggiornamento del processo PMBIST a 4 nanometri, che ha ricevut...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 404 Media

Controllo e Sovranità: Dal Giornalismo Indie al Deployment AI On-Premise

L'esperienza di Maddy Myers, caporedattrice di Mothership, nel fondare una pubblicazione indipendente focalizzata su genere e videogiochi, sottolinea il valore del controllo sulla propria piattaforma e sui contenuti. Questo principio di "possedere il...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

Materiali ad alte prestazioni: un pilastro per l'AI on-premise

Le aziende tessili taiwanesi si espandono nei settori aerospaziale e dei droni, sfruttando materiali avanzati. Questa tendenza evidenzia l'importanza critica di tali innovazioni per lo sviluppo di hardware robusto e performante, fondamentale per le i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 DigiTimes

La corsa ai chip AI: substrati ABF esauriti per i fornitori chiave

La crescente domanda di chip AI sta mettendo sotto pressione la catena di approvvigionamento, con i substrati ABF (Ajinomoto Build-up Film) che risultano esauriti presso i principali fornitori come Unimicron, Kinsus e Nan Ya PCB. Questa carenza evide...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic