Topic / Trend Rising

Accelerazione Hardware e Ottimizzazione per l'IA

L'ottimizzazione dell'hardware per i carichi di lavoro AI è un'area di interesse fondamentale, con sforzi per migliorare l'efficienza, ridurre la latenza e migliorare le prestazioni. Ciò include progressi in GPU, ASIC, tecnicie di memoria e soluzioni di raffreddamento.

Detected: 2026-02-06 · Updated: 2026-02-06

Articoli Correlati

2026-02-06 LocalLLaMA

Qwen3-Coder: prestazioni migliorate su RTX 5090 con llama.cpp

Un utente ha segnalato un significativo aumento di throughput, fino a 26 token/secondo, utilizzando il modello Qwen3-Coder-Next-Q4_K_S con llama.cpp su una RTX 5090. L'ottimizzazione è stata ottenuta scaricando i tensori MoE expert sulla CPU e quanti...

#Hardware #LLM On-Premise
2026-02-06 DigiTimes

I CSP guardano al silicio custom per ridurre la dipendenza da Nvidia

I cloud service provider (CSP) stanno esplorando soluzioni di silicio personalizzate per diversificare le proprie opzioni hardware e ridurre la dipendenza dai fornitori tradizionali come Nvidia. Questa tendenza potrebbe portare a nuove architetture o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Wistron: crescita record a gennaio grazie ai server AI

Il produttore taiwanese Wistron ha registrato un gennaio eccezionalmente positivo, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato evidenzia il crescente interesse del mercato per soluzioni hardware specializ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-06 LocalLLaMA

Parallelismo tensoriale in Llama.cpp: un aggiornamento promettente

Una pull request introduce il parallelismo tensoriale in Llama.cpp, aprendo la strada a inferenze più rapide e efficienti su modelli linguistici di grandi dimensioni. La comunità accoglie con favore questo sviluppo, che potrebbe migliorare significat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

La Corea del Sud punta sull'AI: Nvidia fornisce oltre 260.000 GPU

La Corea del Sud sta investendo massicciamente nell'intelligenza artificiale, supportata da un'infrastruttura hardware potenziata da oltre 260.000 GPU Nvidia. Questa mossa strategica mira a posizionare il paese come leader nel settore dell'AI, con un...

#Hardware
2026-02-05 Tom's Hardware

Tenstorrent riduce i core Tensor delle Blackhole p150 via firmware

Tenstorrent ha annunciato una riduzione del numero di core Tensor sulle schede Blackhole p150, passando da 140 a 120 tramite un aggiornamento del firmware. L'azienda prevede un calo di performance dell'1-2% per gli utenti esistenti. Le nuove schede s...

#Hardware #LLM On-Premise #DevOps
2026-02-05 Tom's Hardware

Western Digital: HDD HAMR da 3,5 pollici con 14 piatti fino a 140 TB

Western Digital annuncia lo sviluppo di HDD (Hard Disk Drive) da 3,5 pollici basati su tecnicia HAMR (Heat-Assisted Magnetic Recording) con una capacità che raggiungerà i 140 TB, grazie all'utilizzo di 14 piatti. Questa tecnicia promette di aumentare...

#LLM On-Premise #DevOps
2026-02-05 Tom's Hardware

Nvidia DLSS 4.5: Ray Reconstruction senza denoiser?

Nvidia starebbe sviluppando DLSS 4.5, una versione avanzata della sua tecnicia di upscaling che potrebbe eliminare la necessità di denoiser nel ray tracing. Questo grazie a un modello Transformer che ricostruisce i riflessi ray-traced in modo più acc...

#Hardware
2026-02-05 Phoronix

Intel Arc B390: prestazioni grafiche su Linux con Panther Lake

Primi benchmark su Linux della GPU Intel Arc B390, integrata nei modelli Panther Lake di fascia alta. La scheda grafica Xe3, dotata di 12 Xe cores, promette prestazioni interessanti in ambito desktop e mobile per carichi di lavoro grafici e di calcol...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Nvidia accelera le consegne di HBM4 da Samsung

Nvidia punta ad accelerare le consegne di memorie HBM4 da Samsung, in un contesto di forte domanda globale di memorie ad alta larghezza di banda. La mossa sottolinea la competizione per accaparrarsi le risorse necessarie per i prossimi acceleratori A...

#Hardware #Fine-Tuning
2026-02-05 DigiTimes

Google premia Innoscience per la produzione di GaN su wafer da 8 pollici

La scelta di Innoscience da parte di Google per la sua piattaforma AI sottolinea l'importanza della produzione di GaN (nitruro di gallio) su wafer da 8 pollici. Questa tecnicia promette di migliorare l'efficienza e le prestazioni dei sistemi di intel...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Jensen Huang: le fabbriche AI guideranno la reindustrializzazione

Secondo Jensen Huang, CEO di NVIDIA, le fabbriche di intelligenza artificiale rappresentano il motore di una nuova ondata di reindustrializzazione. Queste infrastrutture specializzate saranno fondamentali per lo sviluppo e l'implementazione di soluzi...

#Hardware #LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

A16z investe 1,7 miliardi di dollari in infrastrutture AI

Andreessen Horowitz ha stanziato 1,7 miliardi di dollari del suo nuovo fondo da 15 miliardi per investimenti in infrastrutture AI. Il team si concentrerà su aziende come Black Forrest Labs, Cursor, OpenAI, ElevenLabs, Ideogram e Fal.

#LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

Positron sfida Nvidia con chip AI: round da 230 milioni di dollari

Positron ha raccolto 230 milioni di dollari in un round di finanziamento Serie B, con la partecipazione del Qatar Investment Authority. L'azienda punta a competere con Nvidia nel mercato dei chip per l'intelligenza artificiale, in un contesto di cres...

#Hardware
2026-02-04 DigiTimes

Intel pianifica l'ingresso nel mercato delle GPU dominato da Nvidia

Il CEO di Intel ha annunciato l'intenzione di competere nel mercato delle GPU, attualmente dominato da Nvidia. Questa mossa strategica potrebbe portare nuove dinamiche nel settore dell'accelerazione hardware per carichi di lavoro di intelligenza arti...

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Nvidia detta i tempi per HBM4: Samsung e SK Hynix in competizione

La competizione per la produzione di memorie HBM4 si intensifica, con Nvidia che gioca un ruolo chiave nel definire le specifiche. Samsung e SK Hynix si contendono la leadership in questo settore cruciale per le future GPU e acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Forte domanda di server AI nel 2026, Vanguard Semiconductor ottimista

Vanguard International Semiconductor prevede una forte crescita della domanda di potenza per i server AI a partire dal 2026. La società si aspetta un impatto significativo sul mercato dei semiconduttori, con implicazioni per i produttori di hardware ...

#LLM On-Premise #DevOps
2026-02-04 DigiTimes

Penuria di memorie NOR Flash ad alta capacità: impatti sull'AI

L'aumento delle applicazioni di intelligenza artificiale sta intensificando la carenza di memorie NOR Flash ad alta capacità, in particolare le varianti SLC e MLC. Questa situazione potrebbe avere ripercussioni sulla produzione di dispositivi che ric...

#Hardware #LLM On-Premise #DevOps
2026-02-04 DigiTimes

Nvidia accelera validazione e test, fotonica al GTC 2026?

Nvidia intensifica i processi di validazione e test dei suoi prodotti. L'azienda potrebbe concentrarsi sulla fotonica al silicio come elemento chiave per le future GPU, con possibili novità al GTC 2026. Questa tecnicia promette di migliorare signific...

#Hardware
2026-02-03 TechCrunch AI

Intel punta al mercato GPU dominato da Nvidia

Intel intensifica gli sforzi per competere nel mercato delle GPU, attualmente dominato da Nvidia. L'azienda sta costruendo un team dedicato e svilupperà una strategia GPU incentrata sulle esigenze dei clienti. Questo segna un'importante evoluzione ne...

#Hardware #LLM On-Premise #DevOps
2026-02-03 Tom's Hardware

Intel collabora a Z-Angle Memory per data center AI

Intel e Saimemory (gruppo SoftBank) collaborano per sviluppare Z-Angle Memory (ZAM), una memoria verticale per data center AI. ZAM promette capacità 2-3 volte superiori, maggiore larghezza di banda e consumi dimezzati rispetto alle soluzioni attuali.

#Hardware #LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Intel Xeon 600: CPU workstation fino a 86 core

Intel ha lanciato i nuovi processori Xeon serie 600 per workstation, offrendo fino a 86 core. Questi processori supportano memorie fino a 8000 MT/s, 128 linee PCIe Gen5 e un TDP di 350W con supporto per l'overclocking. Si posizionano come un'alternat...

#Hardware #LLM On-Premise #DevOps
2026-02-03 DigiTimes

C Sun investe 1,48 miliardi di NT$ in impianti AI a Taichung

C Sun sta investendo 1,48 miliardi di NT$ (circa 46 milioni di euro) nel suo stabilimento di Taichung per espandere la produzione di apparecchiature avanzate per il packaging di chip destinati ad applicazioni di intelligenza artificiale. L'investimen...

#LLM On-Premise #DevOps
2026-02-03 The Register AI

xAI si fonde con SpaceX: l'obiettivo è la coscienza universale?

Elon Musk ha annunciato l'acquisizione di xAI, la sua società di intelligenza artificiale, da parte di SpaceX. L'integrazione mira a sfruttare l'energia solare per superare i limiti terrestri e diffondere una coscienza universale. La valutazione di S...

#LLM On-Premise #DevOps
2026-02-03 DigiTimes

xAI di SpaceX: implicazioni energetiche e IPO in forse

L'acquisizione di xAI da parte di SpaceX solleva interrogativi sulle future esigenze energetiche dei modelli di intelligenza artificiale e potrebbe influenzare i piani di offerta pubblica iniziale (IPO) dell'azienda aerospaziale. L'articolo evidenzia...

#LLM On-Premise #DevOps
2026-02-02 Tom's Hardware

Huang (Nvidia): TSMC deve accelerare per soddisfare la domanda AI

Il CEO di Nvidia, Jensen Huang, avverte che TSMC, il principale produttore di chip, dovrà incrementare significativamente la sua capacità produttiva per tenere il passo con la crescente domanda di hardware per l'intelligenza artificiale. Huang preved...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Nvidia GB200 spinge il settore chassis verso il raffreddamento a liquido

L'introduzione della GPU Nvidia GB200 sta accelerando l'adozione di sistemi di raffreddamento a liquido e integrazione a livello di rack nel settore dei chassis. Questa transizione è guidata dalla necessità di gestire l'aumento della densità di poten...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Advantech unico vendor IPC al banchetto Nvidia: focus sull'edge AI

Advantech si distingue come unico fornitore di IPC invitato al banchetto di Nvidia, segnalando un crescente interesse verso soluzioni edge AI. Questa mossa sottolinea l'importanza dell'inference AI distribuita e delle capacità di calcolo locale per a...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Produttori taiwanesi di PCB puntano al mercato dei server AI nel 2026

I produttori taiwanesi di circuiti stampati (PCB) stanno investendo in nuove capacità produttive, previste per il 2026, per soddisfare la crescente domanda di server dedicati all'intelligenza artificiale. Questa mossa strategica mira a posizionare le...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

Micron aumenta gli investimenti in memorie in vista di HBM4

Micron sta incrementando i suoi investimenti globali nel settore delle memorie. Questa mossa strategica arriva in un momento cruciale, con Nvidia pronta a lanciare la sua nuova generazione di memorie HBM4, destinate a GPU ad alte prestazioni per cari...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Nvidia accelera la fotonica al silicio: produzione di massa nel 2026

Nvidia punta alla produzione di massa di soluzioni di fotonica al silicio entro il 2026. Questo sviluppo potrebbe avere un impatto significativo sulla catena di approvvigionamento ottica, aprendo la strada a interconnessioni più veloci ed efficienti ...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Soluzioni di raffreddamento taiwanesi per la crescente domanda di chip AI

L'industria taiwanese delle soluzioni di raffreddamento e alimentazione sta rispondendo alla crescente domanda di chip per l'intelligenza artificiale. La capacità di gestire l'aumento del consumo energetico e la dissipazione del calore è cruciale per...

#Hardware #LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

vLLM-MLX su Apple Silicio: throughput superiore fino all'87%

Una recente ricerca confronta le prestazioni di vLLM-MLX su Apple Silicio con llama.cpp, evidenziando un throughput significativamente superiore. I risultati suggeriscono potenziali vantaggi nell'utilizzo di hardware Apple per inference di modelli li...

#LLM On-Premise #DevOps
2026-02-01 DigiTimes

I CSP aumentano il CapEx AI grazie alla supply chain più stabile

I cloud service provider (CSP) stanno incrementando gli investimenti in infrastrutture AI, grazie a una maggiore stabilità della supply chain. Questo aumento di CapEx è un indicatore della crescente domanda di risorse computazionali per l'intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-01-30 DigiTimes

KLA prevede crescita domanda di apparecchiature per semiconduttori AI

Secondo KLA, la crescente adozione di sistemi di controllo dei processi basati su intelligenza artificiale incrementerà la domanda di apparecchiature per la produzione di semiconduttori entro il 2026. Questo trend è guidato dalla necessità di miglior...

#LLM On-Premise #DevOps
← Torna ai Topic