Topic / Trend Rising

Hardware AI e Dinamiche della Supply Chain dei Semiconduttori

La domanda di IA sta guidando una crescita e un'innovazione senza precedenti nella produzione di semiconduttori, dai chip avanzati (GPU, TPU, FPGA) alle tecnicie di packaging e alla memoria (HBM, LPDDR). Le tensioni geopolitiche e le vulnerabilità della supply chain, in particolare in Asia, influenzano significativamente la produzione e i prezzi.

Detected: 2026-05-04 · Updated: 2026-05-04

Articoli Correlati

2026-05-04 LocalLLaMA

AMD Strix Halo: 192GB di Memoria per LLM On-Premise, un Nuovo Orizzonte?

Le recenti indiscrezioni suggeriscono che il prossimo APU AMD Strix Halo, noto come "Gorgon Halo 495 Max" o "Ryzen AI Max Pro 495", potrebbe integrare 192GB di memoria. Questa capacità, abbinata a una iGPU Radeon 8065S, rappresenterebbe un significat...

#Hardware #LLM On-Premise #DevOps
2026-05-04 DigiTimes

Corea del Sud punta a 260.000 GPU: dipendenza da Taiwan e la sfida AI

L'ambizioso piano della Corea del Sud di acquisire 260.000 GPU per le iniziative AI evidenzia una dipendenza critica dalla produzione taiwanese. Come sottolineato dal presidente di DIGITIMES, questo scenario enfatizza l'importanza della collaborazion...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Sciopero Samsung: rischi HBM per l'AI e la supply chain on-premise

Uno sciopero in Samsung solleva preoccupazioni sulla fornitura di High Bandwidth Memory (HBM), componente cruciale per le GPU AI. La potenziale interruzione evidenzia la fragilità della supply chain tecnicica e le sue implicazioni per i deployment di...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

L'accelerazione ottica: i Micro LED di Taiwan per i data center AI

I fornitori taiwanesi di Micro LED stanno intensificando gli sforzi sui collegamenti ottici per i data center dedicati all'intelligenza artificiale. Questa tendenza sottolinea la crescente domanda di connettività ad alta velocità e bassa latenza, ess...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

La Carenza di Memoria AI Frena il Mercato 5G FWA

La crescente domanda di memoria ad alta velocità per i carichi di lavoro di intelligenza artificiale sta creando una pressione significativa sul mercato, con ripercussioni sul settore 5G Fixed Wireless Access. Questa "memory crunch" evidenzia le sfid...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Cerebras punta a un'IPO da 40 miliardi e sfida Nvidia nel mercato dei chip AI

Cerebras, azienda specializzata in chip per l'intelligenza artificiale, sta valutando un'offerta pubblica iniziale che potrebbe valutarla fino a 40 miliardi di dollari. La mossa posiziona l'azienda come un concorrente diretto di Nvidia, leader nel se...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

Il boom dell'hardware AI: impatto sulla supply chain e i componenti passivi

Pierre Chen di Yageo evidenzia come la rapida espansione del settore hardware per l'intelligenza artificiale stia generando un incremento significativo nella domanda di componenti passivi. Questo fenomeno, cruciale per la produzione di server e GPU a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

TSMC: la stretta sui 3nm limita i Mac e impatta l'AI on-premise

La capacità produttiva di TSMC sul nodo a 3nm è sotto pressione, con ripercussioni sulla fornitura di Mac Apple. Questa situazione evidenzia le sfide globali nell'approvvigionamento di silicio avanzato, cruciale per i deployment di Large Language Mod...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-04 DigiTimes

SPIL potenzia la capacità di packaging avanzato per l'AI

SPIL (Silicioware Precision Industries Co.) ha acquisito diversi stabilimenti Nanke per espandere la propria capacità di packaging avanzato. Questa mossa strategica mira a soddisfare la crescente domanda di componenti hardware per l'intelligenza arti...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-03 DigiTimes

Cenefom di BenQ Materials entra nella filiera delle memorie con spazzole CMP

Cenefom, divisione di BenQ Materials, ha fatto il suo ingresso nella catena di fornitura globale delle memorie. L'azienda si posiziona come fornitore di spazzole per la lucidatura chimico-meccanica (CMP), un componente cruciale per la produzione di s...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-03 The Next Web

DJI sotto pressione: droni ritirati dagli scaffali a Pechino

Il 1° maggio, DJI ha ritirato tutti i suoi droni, inclusi i modelli Neo, Mavic e Mini, dal suo negozio principale nel distretto finanziario di Guomao a Pechino. La mossa, che ha visto la rimozione di tutti i prodotti di punta del marchio, non è legat...

#Hardware #LLM On-Premise #DevOps
2026-05-03 LocalLLaMA

Hummingbird+: FPGA a basso costo per l'Inference di LLM

Un nuovo studio presenta Hummingbird+, una soluzione basata su FPGA a basso costo progettata per l'inference di Large Language Models. Il sistema, con un costo di produzione stimato di 150 dollari, è in grado di eseguire il modello Qwen3-30B-A3B con ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-03 LocalLLaMA

MicroGPT di Karpathy: 50.000 token/s su FPGA per LLM compatti

Un'implementazione di MicroGPT, un modello con soli 4.192 parametri, ha dimostrato prestazioni notevoli su FPGA, raggiungendo i 50.000 token al secondo. Questo risultato è attribuibile in parte all'architettura che integra i pesi del modello direttam...

#Hardware #LLM On-Premise #DevOps
2026-05-03 DigiTimes

Lightelligence: i chip fotonici per l'AI e la quotazione a Hong Kong

Yichen Shen, fisico del MIT e fondatore di Lightelligence, sta guidando la sua azienda, specializzata in chip fotonici per l'intelligenza artificiale, verso una quotazione in borsa a Hong Kong. Questa mossa evidenzia l'importanza crescente dell'hardw...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-02 Phoronix

AMD GAIA si rinnova: l'AI locale su PC guadagna potenza e controllo

AMD ha rilasciato una nuova versione di GAIA, il suo software open source "Generative AI Is Awesome", progettato per facilitare lo sviluppo di agenti AI su PC. Disponibile per Windows e Linux e basato sull'SDK Lemonade, GAIA abilita l'elaborazione AI...

#Hardware #LLM On-Premise #DevOps
2026-05-02 Phoronix

Linux 7.1-rc2: Aggiornamenti per le GPU AMD meno recenti

La prossima release del kernel Linux, la versione 7.1-rc2, introduce una serie di aggiornamenti e correzioni per i driver Direct Rendering Manager (DRM). Questi interventi sono specificamente mirati a migliorare il supporto e la stabilità delle GPU A...

#Hardware #LLM On-Premise #DevOps
2026-05-02 Phoronix

KDE Plasma 6.6.5: Ottimizzazioni NVIDIA e Prospettive per l'Framework AI

KDE ha rilasciato Plasma 6.6.5, introducendo correzioni mirate alle prestazioni con hardware NVIDIA. Questo aggiornamento, insieme all'arrivo imminente di Plasma 6.7 a metà giugno con nuove funzionalità, sottolinea l'importanza dell'ottimizzazione so...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 DigiTimes

Yageo: il 15% del fatturato dall'AI, il settore è solo all'inizio

Yageo, un attore chiave nel settore dei componenti elettronici, ha annunciato che il 15% del suo fatturato deriva da applicazioni AI. Il presidente dell'azienda ha sottolineato come il settore dell'intelligenza artificiale sia ancora nelle fasi inizi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 LocalLLaMA

Intel Auto-Round: la Quantization SOTA per LLM su CPU, XPU e CUDA

Intel ha rilasciato Auto-Round, un algoritmo di quantization all'avanguardia progettato per ottimizzare l'inference di LLM a bassa precisione con elevata accuratezza. La soluzione è compatibile con CPU, XPU e CUDA, supporta molteplici tipi di dati e ...

#Hardware #LLM On-Premise #DevOps
2026-05-01 LocalLLaMA

PFlash: accelerazione 10x del prefill LLM su RTX 3090 per contesti a 128K

Luce-Org ha introdotto PFlash, una soluzione C++/CUDA che ottimizza il prefill degli LLM con contesti lunghi. Su una RTX 3090, PFlash raggiunge un'accelerazione di 10 volte rispetto a llama.cpp per modelli quantizzati come Qwen3.6-27B a 128K token. Q...

#Hardware #LLM On-Premise #DevOps
2026-05-01 Phoronix

AMD introduce il supporto HDMI 2.1 FRL per il driver Linux AMDGPU

AMD ha rilasciato patch ufficiali per il suo driver grafico AMDGPU su Linux, introducendo il supporto per HDMI Fixed Rate Link (FRL). Questa implementazione, sebbene non costituisca il supporto completo a HDMI 2.1, è un passo significativo. La tecnic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 Tom's Hardware

La roadmap di ASML: dal DUV all'EUV, il futuro della litografia per i chip AI

ASML, attore chiave nella produzione di semiconduttori, delinea la sua roadmap per le tecnicie di litografia, dal DUV all'EUV avanzato. Questi progressi sono fondamentali per lo sviluppo di chip sempre più potenti, essenziali per l'inference e il tra...

#Hardware #LLM On-Premise #DevOps
2026-05-01 Tom's Hardware

Intel 18A-P: Dettagli sul Nodo di Processo per Performance e Efficienza

Intel ha condiviso nuovi dettagli sul suo nodo di processo 18A-P, evidenziando progressi significativi. Le innovazioni promettono un incremento del 9% nelle prestazioni e un miglioramento del 50% nella conduttività termica, fattori cruciali per ridur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 Phoronix

Intel potenzia il supporto driver per Crescent Island e l'AI enterprise

Intel sta sviluppando attivamente il supporto driver Linux per Crescent Island, la sua prossima scheda grafica Xe3P ottimizzata per l'inference AI in ambito enterprise. Con 160GB di VRAM, Crescent Island mira a soddisfare le esigenze di carichi di la...

#Hardware #LLM On-Premise #DevOps
2026-05-01 DigiTimes

Dubbi sulla domanda di OpenAI e l'impatto sulla supply chain dei server AI

L'incertezza sulla futura domanda di server AI da parte di OpenAI sta generando preoccupazioni lungo l'intera supply chain globale. Questa situazione evidenzia la volatilità del mercato hardware per l'intelligenza artificiale e le sue implicazioni pe...

#Hardware #LLM On-Premise #DevOps
2026-05-01 DigiTimes

Advantest e il Test dei Chip AI: Bilancio Positivo e Prospettive Cautelative

Advantest, leader nel testing di semiconduttori, ha superato le aspettative grazie alla domanda di chip AI. Nonostante i buoni risultati, le prospettive future più caute hanno influenzato il valore delle azioni. Questo scenario evidenzia la complessi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 DigiTimes

Sciopero Samsung: un campanello d'allarme per la filiera dei chip AI

La potenziale minaccia di sciopero in Samsung Electronics evidenzia i crescenti rischi legati al lavoro all'interno della cruciale filiera dei chip per l'intelligenza artificiale. Questo evento sottolinea come le interruzioni nella produzione possano...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 DigiTimes

Cina punta a un supercomputer exascale da 2 ExaFLOPS basato solo su CPU

La Cina ha annunciato un ambizioso piano per sviluppare un supercomputer exascale capace di 2 ExaFLOPS, distinguendosi per l'esclusivo impiego di CPU. Lu Yutong, direttore del centro di supercomputing di Shenzhen e capo progettista, guida l'iniziativ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 DigiTimes

SanDisk: la domanda di AI traina il NAND e ridefinisce i modelli di profitto

SanDisk ha registrato una significativa crescita della domanda di NAND nel terzo trimestre fiscale 2026, spinta dall'espansione dell'intelligenza artificiale. L'azienda sta inoltre ridefinendo il proprio modello di profitto attraverso accordi a lungo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-05-01 Phoronix

Linux 7.2: Scheduler DRM 'Fair' e Integrazione Hardware AIE4 AMDXDNA

Il prossimo kernel Linux 7.2, atteso per l'estate, introdurrà importanti novità per la gestione delle risorse hardware. Tra queste, spicca l'adozione di una priorità predefinita 'Fair' per lo scheduler DRM, volta a ottimizzare l'allocazione delle ris...

#Hardware #LLM On-Premise #DevOps
2026-04-30 LocalLLaMA

AMD Halo Box: Un'occhiata al sistema demo con Ryzen 395 e 128GB di RAM

Un'unità dimostrativa AMD, denominata "Halo Box", è emersa online, mostrando un sistema equipaggiato con un processore Ryzen 395 e 128GB di memoria RAM. Questo dispositivo, che esegue Ubuntu e presenta una striscia luminosa programmabile, offre uno s...

#Hardware #LLM On-Premise #DevOps
2026-04-30 LocalLLaMA

Qwen3.6-27B su RTX 3090: contesto a 218K token e stabilità migliorata

Un team di sviluppatori ha raggiunto risultati significativi nell'esecuzione del Large Language Model Qwen3.6-27B su una singola GPU NVIDIA RTX 3090. L'ottimizzazione ha permesso di estendere la finestra di contesto fino a circa 218.000 token, garant...

#Hardware #LLM On-Premise #DevOps
2026-04-30 LocalLLaMA

AMD annuncia il "Ryzen 395 Box": una soluzione per LLM on-premise?

Durante l'AMD AI Dev Day, l'azienda ha svelato il "Ryzen 395 Box", un dispositivo che potrebbe mirare al deployment locale di Large Language Models. Previsto per giugno, il prodotto non ha ancora un prezzo ufficiale, ma si specula su una possibile co...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 404 Media

Giappone: droni in cartone per la difesa e l'addestramento

Il Ministro della Difesa giapponese, Shinjirō Koizumi, ha presentato il drone AirKamuy 150, un velivolo in cartone pre-fabbricato progettato per l'uso in battaglia e l'addestramento. Già impiegato dalla Forza Marittima di Auto-Difesa come bersaglio, ...

#LLM On-Premise #DevOps
2026-04-30 Tom's Hardware

Carenza di memoria HBM: l'AI spinge la domanda fino al 2027 e oltre

Samsung e SK hynix avvertono che la carenza di memoria HBM, essenziale per l'AI, potrebbe protrarsi oltre il 2027. La domanda esplosiva sta portando i clienti a prenotare forniture con anni di anticipo, mentre il mercato DRAM generale mostra segni di...

#Hardware #LLM On-Premise #DevOps
2026-04-30 DigiTimes

Google e il futuro dei chip AI: la svolta verso acceleratori specializzati

Google sta orientando lo sviluppo dei suoi chip TPU verso soluzioni più specializzate, abbandonando l'approccio universale. Questa evoluzione riflette una tendenza del settore AI che privilegia l'efficienza e le performance per carichi di lavoro spec...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 Tom's Hardware

Cambricon: ricavi Q1 a 423 milioni e la spinta del silicio cinese per l'AI

Cambricon, produttore cinese di GPU, ha registrato un fatturato di 423 milioni di dollari nel primo trimestre, evidenziando la rapida crescita del mercato locale dei chip AI. Questo scenario suggerisce una crescente competizione per Nvidia, con i pro...

#Hardware #LLM On-Premise #DevOps
2026-04-30 DigiTimes

Cambricon: Crescita dei Ricavi Spinta dalla Domanda di Calcolo AI

Cambricon, azienda specializzata in chip AI, ha registrato un significativo aumento dei ricavi, trainato dalla crescente domanda di capacità di calcolo per l'intelligenza artificiale. Questo trend evidenzia l'importanza strategica dell'hardware dedic...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-30 DigiTimes

Samsung e la stabilità del 4nm: un pilastro per AI e automotive

Samsung ha posto l'accento sulla stabilità della sua tecnicia di processo a 4 nanometri, evidenziando come questa sia cruciale per soddisfare la crescente domanda proveniente dai settori dell'intelligenza artificiale e dell'automotive. La capacità di...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

Nvidia e la corsa ai chip AI: la visione del CEO sui TPU di Google

Il CEO di Nvidia ha espresso la sua prospettiva sulla competizione nel mercato dei chip per l'intelligenza artificiale, affermando che i TPU di Google non rappresentano una minaccia significativa. Questa dichiarazione si inserisce in un contesto di c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

La carenza di TPU di Google e la sfida dell'infrastruttura AI

La carenza di Tensor Processing Units (TPU) di Google sta mettendo in luce una crescente disparità nell'infrastruttura dedicata all'intelligenza artificiale. Questo scenario evidenzia come l'accesso a hardware specializzato sia cruciale per lo svilup...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 Phoronix

Intel Lunar Lake: l'evoluzione delle performance CPU su Linux

L'analisi si concentra sull'evoluzione delle performance della CPU Intel Lunar Lake su sistemi Linux. Dopo aver esaminato i guadagni prestazionali della grafica integrata Xe2, l'attenzione si sposta sulle capacità di calcolo del processore. I benchma...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 Phoronix

OpenCL introduce estensioni Cooperative Matrix per l'Inference AI

L'API OpenCL sta integrando estensioni Cooperative Matrix, una mossa che segue l'introduzione di funzionalità simili in Vulkan nel 2023. Queste estensioni sono progettate per ottimizzare le operazioni di Inference di machine learning e intelligenza a...

#Hardware #LLM On-Premise #DevOps
2026-04-29 IEEE Spectrum

La "lotteria del silicio": variabilità inattesa nelle prestazioni GPU cloud

Una ricerca congiunta rivela significative variazioni prestazionali tra GPU dello stesso modello, un fenomeno noto come "lotteria del silicio". Questo impatta il valore del noleggio di risorse cloud per carichi di lavoro AI, con differenze fino al 38...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 LocalLLaMA

Bolle AI e Prezzi GPU: Il Dilemma dell'Framework Locale

Il rapido sviluppo dell'intelligenza artificiale ha alimentato un'intensa domanda di GPU, ma un'ipotetica "bolla AI" potrebbe alterare radicalmente il mercato. L'articolo esplora due scenari contrapposti: un aumento dei prezzi delle GPU consumer per ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 LocalLLaMA

AMD e il potenziale dell'AI locale: un "computer" per l'inference domestica

La crescente capacità dell'hardware consumer, con attori come AMD, sta rendendo sempre più accessibile l'esecuzione di carichi di lavoro AI, inclusi i Large Language Models, direttamente su sistemi locali. Questo sviluppo apre nuove prospettive per l...

#Hardware #LLM On-Premise #DevOps
2026-04-29 DigiTimes

Montage Technology: profitti in crescita grazie a DDR5 e server AI

Montage Technology, azienda cinese di chip di memoria, ha registrato un aumento dei profitti, trainato dalla forte domanda di moduli DDR5 e dall'espansione del mercato dei server dedicati all'intelligenza artificiale. Questo trend sottolinea il ruolo...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 LocalLLaMA

Hipfire: Validazione estesa delle architetture AMD per LLM on-premise

Il progetto Hipfire annuncia progressi significativi nella validazione delle architetture GPU AMD, dalle generazioni RDNA 1 fino a RDNA 4, inclusi i nuovi chip Strix Halo e R9700. L'iniziativa mira a ottimizzare le performance per i Large Language Mo...

#Hardware #LLM On-Premise #DevOps
2026-04-29 DigiTimes

La domanda di LLM spinge l'espansione dei nodi TSMC e l'economia di Taiwan

La crescente richiesta di capacità computazionale per i Large Language Models (LLM) sta accelerando l'espansione dei nodi di produzione di TSMC. Questo fenomeno non solo evidenzia la centralità del silicio avanzato per l'AI, ma genera anche un signif...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

La strategia cinese sui chip AI e le implicazioni per l'economia di Nvidia

La spinta della Cina verso l'autosufficienza nei chip AI sta generando nuove pressioni economiche per Nvidia, leader nel settore. Questa strategia evidenzia la crescente competizione nel mercato globale dell'hardware per l'intelligenza artificiale, i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

Le CPU al centro dell'architettura AI: l'impatto della tendenza multicore

Il panorama dell'intelligenza artificiale vede un rinnovato interesse per le CPU, che stanno riaffermando il loro ruolo centrale nell'architettura AI. Questa tendenza è alimentata dall'evoluzione dei processori multicore e dalle crescenti sfide nella...

#Hardware #LLM On-Premise #DevOps
2026-04-29 DigiTimes

Oracle sposta ordini server a Taiwan: impatto sulla supply chain AI

Oracle ha deciso di trasferire i suoi ordini di server da Supermicro a produttori taiwanesi, una mossa che evidenzia le dinamiche in evoluzione della supply chain globale. Questa strategia potrebbe riflettere la ricerca di maggiore resilienza e diver...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-29 DigiTimes

Espansione Globale e Supply Chain: Impatti sull'Framework AI On-Premise

L'espansione settoriale in regioni chiave, come quella dell'industria dei PCB in Thailandia, evidenzia la crescente importanza delle strategie di supply chain. Questo scenario offre spunti per le decisioni di deployment AI on-premise, dove la disponi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 Phoronix

AMD Lemonade SDK 10.3: un server AI locale 10 volte più compatto

AMD ha rilasciato la versione 10.3 del suo SDK Lemonade, un server AI locale open source. L'aggiornamento riduce le dimensioni del pacchetto di dieci volte grazie all'eliminazione di Electron, rendendolo più efficiente per i deployment on-premise. Le...

#Hardware #LLM On-Premise #DevOps
2026-04-28 LocalLLaMA

Ottimizzazione VRAM per Qwen3.6-27B: 110k di Contesto su GPU da 16GB

Un'analisi approfondita rivela che un recente aggiornamento del Framework `llama.cpp` ha aumentato il consumo di VRAM del modello Qwen3.6-27B IQ4_XS, rendendolo problematico per le GPU da 16GB. Una soluzione personalizzata ripristina l'efficienza ori...

#Hardware #LLM On-Premise #DevOps
2026-04-28 The Register AI

Tenstorrent lancia i server Galaxy Blackhole per l'AI on-premise

Tenstorrent ha annunciato la disponibilità generale della sua piattaforma di calcolo AI Galaxy Blackhole. Questi sistemi, basati su architettura RISC-V, integrano 32 acceleratori Blackhole in un chassis 6U, con un costo di 110.000 dollari. La soluzio...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 Tom's Hardware

La serie GeForce RTX 30: un upgrade necessario per l'AI entro il 2026?

L'evoluzione dei Large Language Models (LLM) sta mettendo sotto pressione le infrastrutture hardware. Questo articolo esplora se le GPU GeForce RTX 30-series, basate sull'architettura Ampere, saranno ancora adeguate per i carichi di lavoro AI enterpr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 LocalLLaMA

Luce DFlash: Qwen3.6-27B a doppia velocità su una singola RTX 3090

Il progetto Luce DFlash introduce una soluzione C++/CUDA per l'inference di LLM, raddoppiando il throughput del modello Qwen3.6-27B su una singola GPU NVIDIA RTX 3090. La tecnicia sfrutta il decoding speculativo e tecniche avanzate di gestione della ...

#Hardware #LLM On-Premise #DevOps
2026-04-28 Phoronix

AMD prepara uno scheduler hardware per le NPU Ryzen AI

Il driver AMDXDNA per le NPU Ryzen AI di AMD introduce una nuova funzionalità: un "hardware scheduler time quantum". L'obiettivo è garantire un'equa distribuzione delle risorse tra più utenti o contesti che utilizzano queste unità di elaborazione neu...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

Il mercato cinese degli acceleratori AI di fascia alta: tendenze e sfide

Il mercato cinese degli acceleratori AI di fascia alta si prepara a significative evoluzioni entro il 2026. Le tendenze di localizzazione, il panorama competitivo in rapida trasformazione e i vincoli della supply chain globale stanno ridefinendo le s...

#Hardware #LLM On-Premise #DevOps
2026-04-28 DigiTimes

Nanya entra nell'ecosistema di memoria AI di Nvidia con LPDDR

Nanya Technology si inserisce nel panorama delle soluzioni di memoria per l'intelligenza artificiale di Nvidia, introducendo la tecnicia LPDDR. Questa mossa suggerisce un'espansione delle opzioni disponibili per i sistemi AI, con potenziali implicazi...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Turiyam.ai e l'opportunità dell'inference AI con piattaforme full-stack

La startup indiana Turiyam.ai si posiziona nel crescente mercato dell'inference AI con una piattaforma compute full-stack. L'iniziativa mira a semplificare il deployment di carichi di lavoro AI, offrendo soluzioni integrate che possono rivelarsi cruc...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-28 DigiTimes

Samsung accelera Pyeongtaek per la produzione di memoria HBM4 per l'AI

Samsung sta intensificando lo sviluppo dei suoi impianti di produzione a Pyeongtaek. L'obiettivo è accelerare la transizione verso la memoria HBM4, cruciale per soddisfare la crescente domanda di soluzioni di memoria ad alte prestazioni nel settore d...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-27 DigiTimes

Chip AI: il testing complesso spinge la domanda nella supply chain

La crescente complessità nel testing dei chip AI sta generando un aumento della domanda per le probe card e per l'intera catena di fornitura a monte. Questo fenomeno potrebbe influenzare i costi e la disponibilità dell'hardware essenziale per i deplo...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

DeepSeek V4 e il divario AI: le sfide tra USA e Cina per i chip

DeepSeek V4 non ha colmato il divario di performance, evidenziando la persistente divisione nell'ambito dell'intelligenza artificiale tra Stati Uniti e Cina. Questa situazione è aggravata dalle restrizioni sui chip, che influenzano la disponibilità d...

#Hardware #LLM On-Premise #DevOps
2026-04-27 Phoronix

RADV: Protezione della Memoria su GPU AMD con Trusted Memory Zone

Il driver Vulkan RADV di Mesa introduce il supporto per la memoria protetta sulle GPU AMD più recenti, sfruttando la tecnicia Trusted Memory Zone (TMZ). Questa innovazione, sviluppata dagli ingegneri AMD, rafforza la sicurezza a livello hardware, un ...

#Hardware #LLM On-Premise #DevOps
2026-04-27 DigiTimes

Ottiche Co-Packaged: la svolta per la connettività nei data center AI

L'integrazione di ottiche Co-Packaged (CPO) rappresenta un cambiamento fondamentale nella connettività dei data center dedicati all'intelligenza artificiale. Questa tecnicia promette di affrontare le crescenti esigenze di larghezza di banda e di effi...

#Hardware #LLM On-Premise #Fine-Tuning
← Torna ai Topic