Topic / Trend Rising

Framework e Hardware AI

Le crescenti esigenze dell'IA stanno guidando l'innovazione nell'hardware e nell'infrastruttura, tra cui GPU, memoria specializzata e data center. Le aziende stanno investendo pesantemente nella costruzione e nell'ottimizzazione dell'infrastruttura per supportare i carichi di lavoro dell'IA.

Detected: 2026-01-31 · Updated: 2026-02-22

Articoli Correlati

2026-02-21 TechCrunch AI

Sam Altman: addestrare un essere umano richiede molta energia

Sam Altman, CEO di OpenAI, sottolinea come anche l'addestramento degli esseri umani richieda un notevole dispendio energetico. Il commento si inserisce nel dibattito sull'impatto ambientale dell'intelligenza artificiale e dei modelli linguistici di g...

#LLM On-Premise #DevOps
2026-02-21 Tom's Hardware

Data center aggirano la rete elettrica con centrali a gas private

Alcuni sviluppatori di data center stanno costruendo centrali elettriche private a gas naturale per alimentare le proprie infrastrutture, bypassando le reti elettriche sovraccariche. Un progetto in Texas consumerà quanto la città di Chicago.

#LLM On-Premise #DevOps
2026-02-21 DigiTimes

Infrastrutture rack: un tassello nella catena di approvvigionamento AI

La crescente domanda di capacità di calcolo per l'intelligenza artificiale sta spingendo l'evoluzione delle infrastrutture rack. I data center si preparano a sostenere carichi di lavoro sempre più intensi, con un occhio di riguardo all'efficienza ene...

#LLM On-Premise #DevOps
2026-02-20 Tech.eu

CLIMATEX ottiene 3,5 milioni di euro per tecnicie tessili circolari

La società svizzera CLIMATEX AG, specializzata in tecnicie tessili circolari, ha chiuso un round di finanziamento da 3,5 milioni di euro guidato dal Collateral Good Textile & Fashion Innovation Fund. I fondi saranno utilizzati per rafforzare le attiv...

2026-02-20 Tom's Hardware

UALink: standard aperto per interconnessioni data center AI

UALink, presentato a Hot Chips 2024, è uno standard aperto per interconnessioni nei data center AI. Mira a ridurre la dipendenza dai vendor, ottimizzando costi e performance. L'iniziativa promette maggiore flessibilità e controllo nell'infrastruttura...

#Hardware #LLM On-Premise #DevOps
2026-02-20 Wired AI

Data center AI nello spazio: una soluzione per il futuro?

I data center di grandi dimensioni necessari per l'AI generativa hanno un impatto ambientale significativo. Una proposta radicale suggerisce di trasferirli in orbita per ridurre l'impronta ecologica. Restano da valutare i costi e la fattibilità tecni...

#LLM On-Premise #DevOps
2026-02-20 DigiTimes

SK Group cerca fornitori di chip AI negli USA

Il presidente di SK Group, Chey Tae-won, ha incontrato leader del settore tech statunitense per assicurarsi forniture di chip essenziali per l'intelligenza artificiale. L'iniziativa mira a rafforzare la catena di approvvigionamento di SK Hynix, cruci...

2026-02-20 DigiTimes

Corsa all'IA: infrastrutture potenziate da fornitori taiwanesi

La crescente domanda di infrastrutture per l'intelligenza artificiale sta alimentando una competizione globale, con un impatto significativo sui fornitori di chip e server con sede a Taiwan. L'articolo analizza come questa dinamica stia influenzando ...

#LLM On-Premise #DevOps
2026-02-20 DigiTimes

I colossi tech puntano sull'AI fisica nell'era GenAI

Le grandi aziende tecniciche stanno investendo sempre più in infrastrutture fisiche per l'intelligenza artificiale generativa. Questa tendenza riflette la crescente importanza di hardware specializzato e stack locali per gestire i carichi di lavoro A...

#Hardware #LLM On-Premise #DevOps
2026-02-19 Tom's Hardware

GPU AMD come garanzia per un prestito da 300 milioni di dollari

Una startup cloud utilizzerà GPU AMD Instinct in un datacenter in Ohio, ottenendo un prestito di 300 milioni di dollari garantito proprio dalle GPU. L'operazione evidenzia il valore crescente dell'hardware AI nel mercato.

#Hardware #LLM On-Premise #DevOps
2026-02-19 Tom's Hardware

La Cina accelera il raffreddamento a liquido per i server AI

L'espansione dell'intelligenza artificiale in Cina sta spingendo i fornitori nazionali ad adottare rapidamente sistemi di raffreddamento a liquido per i server, a causa delle crescenti esigenze di dissipazione termica dei cluster di calcolo intensivi...

#LLM On-Premise #DevOps
2026-02-19 ArXiv cs.AI

CaR: Nuovo Framework per Solutori Neurali di Problemi di Routing

Un nuovo studio introduce Construct-and-Refine (CaR), un framework per migliorare la gestione dei vincoli nei solutori neurali per problemi di routing. CaR mira a superare le limitazioni degli approcci esistenti, offrendo maggiore efficienza e qualit...

#Fine-Tuning
2026-02-19 LocalLLaMA

Scalare le GPU oltre i limiti della scheda madre: guida

Un utente sta pianificando un server AI con otto GPU, ma le schede madri disponibili hanno un numero limitato di slot PCIe. La discussione esplora l'uso di riser e altre soluzioni per superare queste limitazioni hardware, consentendo di collegare più...

#Hardware #LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Google Cloud: navigare le sfide infrastrutturali delle startup AI

Le startup che adottano l'AI si trovano a dover accelerare i tempi, con finanziamenti limitati e costi infrastrutturali in aumento. Google Cloud evidenzia l'importanza di scelte infrastrutturali oculate fin dall'inizio per evitare problemi futuri, no...

#Hardware #LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Google Cloud: infrastrutture AI e scelte strategiche per startup

Le startup, spinte ad accelerare lo sviluppo con l'AI, si trovano a fronteggiare budget limitati e costi infrastrutturali crescenti. Google Cloud offre crediti cloud e GPU, ma le scelte iniziali sull'infrastruttura possono avere conseguenze a lungo t...

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Supply chain server AI: PCB e CCL in testa, ASIC e test divergono

La supply chain dei server AI mostra dinamiche contrastanti. Mentre i produttori di PCB (Printed Circuit Board) e CCL (Copper Clad Laminate) guidano il mercato, si osservano divergenze nella produzione di ASIC e nelle procedure di testing. Un'analisi...

#LLM On-Premise #DevOps
2026-02-18 Tom's Hardware

Hyperscaler AI puntano all'uranio per alimentare i data center del futuro

I principali fornitori di servizi AI stanno stringendo accordi con compagnie minerarie per assicurarsi forniture a lungo termine di uranio. L'obiettivo è alimentare i futuri data center con energia nucleare, in un contesto di crescente domanda energe...

#LLM On-Premise #DevOps
2026-02-18 LocalLLaMA

Google: Efficacia sorprendente del masking negli ottimizzatori adattivi

Un recente studio di Google esplora l'efficacia inattesa del masking degli aggiornamenti negli ottimizzatori adattivi. La ricerca, accessibile tramite Hugging Face, ha generato discussioni nella comunità LocalLLaMA, con implicazioni potenziali per l'...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-18 Tom's Hardware

Meta punta su CPU Nvidia Grace per produzione, in arrivo Vera

Meta prevede di implementare CPU Nvidia Grace standalone in produzione, con l'architettura Vera in arrivo. L'azienda stima miglioramenti fino a 2X nel rapporto performance/watt per alcuni carichi di lavoro CPU.

#Hardware #LLM On-Premise #DevOps
2026-02-18 Google AI Blog

Google: partnership e investimenti all'AI Impact Summit 2026

Un resoconto delle partnership e degli investimenti annunciati da Google durante l'AI Impact Summit del 2026. L'evento ha fatto luce sulle strategie future dell'azienda nel campo dell'intelligenza artificiale e sul suo impatto potenziale su vari sett...

2026-02-18 The Next Web

Quantonation: fondo da 220 milioni per tecnicie fisiche next-gen

La società di venture capital Quantonation, con sede a Parigi, ha annunciato la chiusura del suo secondo fondo flagship a 220 milioni di euro. L'obiettivo è supportare lo sviluppo di tecnicie quantistiche in Europa, con un focus su computing, scienza...

#LLM On-Premise #DevOps
2026-02-18 ArXiv cs.LG

RL vincolato: algoritmi per decisioni sicure e ottimali

Un nuovo studio presenta un algoritmo primal-duale per l'apprendimento per rinforzo vincolato (CMDP), affrontando il problema della sicurezza in ambienti reali come la robotica e la guida autonoma. L'algoritmo garantisce prestazioni quasi ottimali co...

2026-02-18 DigiTimes

Meta investe in GPU Nvidia per infrastruttura AI multi-anno

Meta ha stretto un accordo pluriennale per assicurarsi milioni di GPU Nvidia e CPU, potenziando la propria infrastruttura dedicata all'intelligenza artificiale. L'investimento sottolinea l'importanza strategica dell'AI per Meta.

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Zhen Ding: boom previsto nel 2026 grazie all'AI di fascia alta

Il produttore di PCB Zhen Ding prevede una crescita significativa a partire dal 2026, trainata dalla domanda di soluzioni AI di fascia alta. L'aumento dei volumi e dei prezzi dei PCB, componenti essenziali per l'hardware AI, contribuirà in modo deter...

#Hardware #LLM On-Premise #DevOps
2026-02-18 DigiTimes

Samsung spinge LPDDR5X-PIM: la memoria al centro dell'AI computing

Samsung sta sviluppando memorie LPDDR5X-PIM (Processing-in-Memory) per accelerare i carichi di lavoro di intelligenza artificiale. Questa tecnicia mira a ridurre i colli di bottiglia spostando parte dell'elaborazione direttamente all'interno del chip...

#LLM On-Premise #DevOps
2026-02-17 DigiTimes

Boom di fabbriche AI a Taiwan spinge costruzioni e speculazioni fondiarie

L'aumento della domanda di infrastrutture per l'intelligenza artificiale a Taiwan sta generando un'impennata nel settore delle costruzioni e nel mercato fondiario. La necessità di data center e fabbriche specializzate per ospitare carichi di lavoro A...

#LLM On-Premise #DevOps
2026-02-17 The Register AI

Meta punta sui processori Nvidia per l'AI su larga scala

Meta intensifica la collaborazione con Nvidia, integrando i processori Grace di Nvidia nei propri sistemi CPU-only. L'azienda prevede di implementare milioni di GPU nei prossimi anni e sta già lavorando all'adozione delle future CPU Vera di Nvidia a ...

#Hardware #LLM On-Premise #DevOps
2026-02-17 The Register AI

Toto: il gigante dei sanitari giapponesi punta sull'AI?

Il fondo attivista Palliser Capital sostiene che Toto, azienda giapponese leader nel settore dei sanitari, possieda un valore nascosto nei semiconduttori e la spinge a rivelarlo. L'azienda potrebbe avere un ruolo inaspettato nel settore dell'intellig...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-17 LocalLLaMA

Qwen3.5 NVFP4: Inference Quantizzata su NVIDIA Blackwell

È disponibile Qwen3.5 in versione NVFP4, quantizzato con NVIDIA Model Optimizer. Il checkpoint pesa circa 224GB con 17 miliardi di parametri attivi. La licenza è Apache 2.0. Richiede SGLang e offre esempi di lancio su B200/B300 e RTX PRO 6000.

#Hardware
2026-02-17 Tom's Hardware

Investimenti AI: impatto sull'hardware consumer

L'ingente afflusso di capitali nel settore dell'intelligenza artificiale sta rimodellando il panorama dell'elettronica di consumo. Si prevede una contrazione nel numero di nuove uscite hardware, poiché le risorse si concentrano sull'infrastruttura pe...

#Hardware #LLM On-Premise #DevOps
2026-02-17 TechCrunch AI

Adani investe 100 miliardi $ in data center AI in India

Il gruppo Adani prevede di investire 100 miliardi di dollari nella costruzione di data center dedicati all'intelligenza artificiale in India. L'obiettivo è raggiungere una capacità di 5 gigawatt, anche attraverso partnership con Google, Microsoft e F...

#LLM On-Premise #DevOps
2026-02-17 Wired AI

La corsa all'IA globale investe la campagna inglese

La cittadina di Potters Bar, alle porte di Londra, si trova al centro di una disputa tra la necessità di infrastrutture per l'intelligenza artificiale e la tutela delle aree verdi circostanti. La crescente domanda di risorse computazionali per l'IA m...

#LLM On-Premise #DevOps
2026-02-17 DigiTimes

AMD e TCS: infrastruttura AI da 200 MW in India

AMD e Tata Consultancy Services (TCS) ampliano la loro collaborazione per implementare un'infrastruttura dedicata all'intelligenza artificiale in India, con una capacità di 200 MW. L'iniziativa mira a supportare la crescente domanda di risorse di cal...

#Hardware #LLM On-Premise #DevOps
2026-02-16 Tom's Hardware

Corsair AI Workstation 300: Strix Halo in un formato compatto

La Corsair AI Workstation 300 combina potenza e dimensioni ridotte, integrando il processore Strix Halo. Questo sistema si presenta come una soluzione elegante, sebbene con un prezzo non trascurabile. Ideale per chi cerca prestazioni elevate in un fo...

#LLM On-Premise #DevOps
2026-02-16 DigiTimes

Din dinamiche della supply chain AI: potenza, substrati e termica

DIGITIMES analizza le dinamiche della supply chain dell'intelligenza artificiale, con un focus particolare su potenza, substrati e soluzioni termiche. L'articolo evidenzia come questi elementi stiano guadagnando importanza nel contesto dello sviluppo...

#LLM On-Premise #DevOps
2026-02-16 DigiTimes

Intel rilancia la sfida AI PC, focus su memorie ZAM e HBM

Intel intensifica la competizione nel settore AI PC, con un occhio di riguardo alle memorie ZAM. Cresce la sfida tra le tecnicie HBM3 e HBM4, cruciali per le prestazioni dei carichi di lavoro di intelligenza artificiale. Il mercato è in rapida evoluz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-16 TechCrunch AI

C2i punta a ridurre i colli di bottiglia energetici nei data center AI

La startup indiana C2i ha raccolto 15 milioni di dollari per testare un approccio grid-to-GPU che mira a ridurre le perdite di potenza nei data center dedicati all'intelligenza artificiale. L'obiettivo è ottimizzare l'efficienza energetica, un proble...

#Hardware #LLM On-Premise #DevOps
2026-02-15 Tech in Asia

La Cina punta sul raffreddamento a liquido per i data center AI

L'aumento delle temperature nei data center cinesi dedicati all'intelligenza artificiale spinge verso soluzioni di raffreddamento a liquido. La maggiore densità di potenza dei sistemi AI richiede metodi di dissipazione del calore più efficienti per g...

#Hardware
2026-02-15 LocalLLaMA

AdaLLM: Inference NVFP4 su RTX 4090 con cache FP8

AdaLLM è un nuovo runtime focalizzato sull'inference NVFP4 accelerata su GPU Ada Lovelace, come la RTX 4090. Implementa una cache KV FP8 e un kernel di decodifica FP8 personalizzato, evitando il fallback a FP16. Supporta modelli come Qwen3 e Gemma3, ...

#Hardware #LLM On-Premise #DevOps
2026-02-14 DigiTimes

Export di Taiwan in crescita grazie ai server AI: ottimismo per il 2026

Le esportazioni di Taiwan a gennaio hanno registrato un aumento di quasi il 70%, trainate dalla forte domanda di server AI. Questa crescita alimenta l'ottimismo per il 2026 e rafforza gli investimenti nella difesa tecnicica. Il settore tecnicico taiw...

#Hardware #LLM On-Premise #DevOps
2026-02-13 Phoronix

NVIDIA rilascia driver Nouveau GSP open-source per GA100

NVIDIA ha rilasciato un aggiornamento open-source per il driver Nouveau, focalizzato sul supporto della GPU GA100 tramite il processore di sistema GPU (GSP). Questa mossa mira a migliorare la compatibilità e le prestazioni delle GPU NVIDIA con driver...

#Hardware #LLM On-Premise #DevOps
2026-02-13 DigiTimes

AMD guadagna quote di mercato server e PC, Intel sotto pressione

Secondo DIGITIMES, AMD sta erodendo le quote di mercato di Intel nei settori server e PC. Le restrizioni sulla catena di approvvigionamento in Cina potrebbero intensificare ulteriormente le pressioni sui prezzi.

#Hardware #LLM On-Premise #DevOps
2026-02-13 ServeTheHome

GPT-5.3 di OpenAI raggiunge 1000 token/secondo su chip Cerebras

Il modello GPT-5.3-Codex-Spark di OpenAI è stato ottimizzato per funzionare sui processori Cerebras WSE-3, raggiungendo una velocità di inference di oltre 1000 token al secondo. Questa performance apre nuove prospettive per applicazioni che richiedon...

#LLM On-Premise #DevOps
2026-02-13 Tom's Hardware

Radeon RX 9060 XT 8GB: una boccata d'ossigeno per il gaming a basso costo

La Radeon RX 9060 XT 8GB, basata su architettura Navi 44, si riposiziona sul mercato con un prezzo di listino di 299 dollari. Questa mossa mira a fornire una soluzione accessibile per i giocatori con budget limitato, in un contesto di crescente doman...

#Hardware #Fine-Tuning
2026-02-13 LocalLLaMA

Deepseek testa un nuovo modello: focus sulla comprensione

Deepseek, gruppo cinese attivo nello sviluppo di modelli linguistici di grandi dimensioni (LLM), ha annunciato di essere nella fase di test di un nuovo modello. I benchmark preliminari si concentrano sulle capacità di comprensione del testo, con risu...

#LLM On-Premise #DevOps
2026-02-13 DigiTimes

Quanta incrementa gli investimenti in Thailandia per server AI

Quanta Computer espande la produzione di server AI in Thailandia, aumentando gli investimenti per rispondere alla crescente domanda. L'iniziativa mira a rafforzare la capacità produttiva nel settore dell'intelligenza artificiale, con un focus sui ser...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-13 DigiTimes

AUO prevede 1000 assunzioni nel 2026 per espansione AI

Il produttore di display AUO prevede di assumere 1000 persone entro il 2026. L'espansione è guidata dalla crescente domanda di soluzioni AI nei settori dei display e della mobilità intelligente. L'azienda punta a rafforzare la propria presenza in que...

#LLM On-Premise #DevOps
2026-02-13 DigiTimes

SK Hynix investe in una nuova linea di packaging HBM a Cheongju

SK Hynix ha avviato l'ordinazione di attrezzature per una nuova linea di packaging HBM (High Bandwidth Memory) a Cheongju, in risposta alla crescente domanda di memorie ad alte prestazioni guidata dall'intelligenza artificiale. L'espansione mira ad a...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-13 DigiTimes

Accordo Taiwan-USA riduce barriere export e rafforza supply chain tech

Un nuovo accordo commerciale tra Taiwan e Stati Uniti mira a ridurre gli ostacoli all'export e a rafforzare le catene di approvvigionamento tecniciche. L'iniziativa dovrebbe favorire una maggiore collaborazione nel settore tecnicico e una più fluida ...

#LLM On-Premise #DevOps
2026-02-13 DigiTimes

Taiwan allenta restrizioni import auto USA: focus su sicurezza

Taiwan rimuoverà i limiti all'importazione di veicoli dagli Stati Uniti, sollevando un dibattito sull'adeguatezza delle ispezioni di sicurezza. La decisione potrebbe portare a una maggiore concorrenza nel mercato automobilistico taiwanese, ma anche a...

2026-02-13 DigiTimes

Taiwan e USA mirano a proteggere le filiere e la parità tariffaria

Un nuovo accordo commerciale tra Taiwan e Stati Uniti punta a rafforzare le filiere e stabilire una parità tariffaria. L'iniziativa mira a garantire la sicurezza degli approvvigionamenti e a promuovere una maggiore cooperazione economica tra le due n...

2026-02-13 DigiTimes

Samsung e SK Hynix: focus su HBM e AI alla SEMICON Korea

Al SEMICON Korea, Samsung ha evidenziato i progressi nel settore delle memorie HBM con tecnicia hybrid bonding. SK Hynix, invece, ha posto l'accento sull'integrazione dell'intelligenza artificiale a livello di piattaforma, segnalando un cambio di par...

#LLM On-Premise #DevOps
2026-02-13 DigiTimes

Samsung punta agli 8nm in Europa mentre avanza il piano 2nm

Samsung si prepara a incrementare la produzione di chip a 8nm in Europa, parallelamente allo sviluppo della tecnicia a 2nm. Questa mossa strategica potrebbe rafforzare la posizione di Samsung nel mercato europeo dei semiconduttori.

2026-02-13 DigiTimes

La crescita dell'IA attende nuove camere bianche, dice Applied

Secondo Applied, l'espansione dell'intelligenza artificiale è concreta, ma necessita di un aumento delle infrastrutture per la produzione di semiconduttori, in particolare le camere bianche. La capacità produttiva è un fattore limitante.

#LLM On-Premise #DevOps
2026-02-13 DigiTimes

Spesa per chip AI vicina a 1 trilione di dollari

La spesa globale per i chip destinati all'intelligenza artificiale è in rapida crescita, avvicinandosi a un punto di svolta di 1 trilione di dollari. Questo aumento riflette la crescente domanda di capacità di calcolo per applicazioni AI.

#Hardware #LLM On-Premise #DevOps
2026-02-13 DigiTimes

Taiwan: dibattito sulle metriche di ricerca scientifica

Le osservazioni del ministro Cheng-wen Wu sull'importanza delle metriche di valutazione della ricerca scientifica a Taiwan hanno acceso un dibattito nella comunità accademica. La discussione verte su come misurare efficacemente l'impatto e la qualità...

2026-02-13 TechWire Asia

Visa: Fiducia nell'AI cala in Asia, consumatori frenati al pagamento

Un sondaggio Visa rivela che, nonostante l'adozione diffusa dell'AI per la ricerca di prodotti in Asia Pacifico, quasi la metà dei consumatori esita a utilizzarla per i pagamenti. I consumatori più esperti e benestanti sono i più scettici, temendo pe...

#LLM On-Premise #DevOps
2026-02-13 The Register AI

IA: agenti di call center potenziati, non sostituiti, secondo UJET

Secondo il CEO di UJET, l'intelligenza artificiale non rimpiazzerà gli operatori dei call center, ma trasformerà l'infrastruttura software per risolvere più rapidamente i problemi dei clienti, evitando escalation e passaggi tra sistemi diversi. Gartn...

2026-02-12 Ars Technica AI

OpenAI punta su Cerebras per il modello di sviluppo codice GPT-5.3-Codex-Spark

OpenAI ha rilasciato il modello GPT-5.3-Codex-Spark, il suo primo modello di produzione AI a funzionare su hardware non-Nvidia, utilizzando chip Cerebras. Il modello offre codice a oltre 1.000 token al secondo, circa 15 volte più veloce del suo prede...

#Hardware #LLM On-Premise #DevOps
2026-02-12 TechCrunch AI

SpaceX punta alla Luna per l'inference AI nello spazio profondo

Elon Musk immagina una base lunare, soprannominata Moonbase Alpha, dotata di un sistema di lancio per satelliti AI nello spazio profondo. L'obiettivo è accelerare lo sviluppo dell'intelligenza artificiale e l'esplorazione spaziale.

#LLM On-Premise #DevOps
2026-02-12 PyTorch Blog

PyTorch accelera il type checking con Pyrefly

PyTorch ha adottato Pyrefly per il type checking, ottenendo un incremento di velocità di 10 volte rispetto a MyPy. La migrazione semplifica la configurazione, garantisce coerenza tra ambienti di sviluppo e migliora la qualità del codice grazie a funz...

2026-02-12 Tom's Hardware

Nvidia DGX Spark: consumi ridotti del 32% con hot-plug

L'aggiornamento di Nvidia DGX Spark introduce il rilevamento hot-plug sulla NIC ConnectX, ottimizzando l'efficienza energetica delle workstation AI e riducendo i consumi in idle del 32% o più. Un passo avanti per workstation AI più efficienti.

#Hardware #LLM On-Premise #DevOps
2026-02-12 TechCrunch AI

Codex di OpenAI: nuova versione con chip dedicato

OpenAI ha annunciato una nuova versione del suo strumento di sviluppo assistito Codex, sottolineando come questa release rappresenti una pietra miliare nella collaborazione con un produttore di chip. Non sono stati forniti dettagli sulle specifiche t...

#Hardware #Fine-Tuning
2026-02-12 Phoronix

Ubuntu 24.04.4 LTS disponibile con kernel Linux 6.17 HWE

Canonical ha rilasciato Ubuntu 24.04.4 LTS, l'ultima point release della serie Noble Numbat. Questa versione include aggiornamenti di sicurezza, correzioni di bug e il kernel Linux 6.17 HWE (Hardware Enablement). L'obiettivo è fornire una base più st...

#Hardware #LLM On-Premise #DevOps
2026-02-12 Tom's Hardware

L'investimento cinese in AI e data center accelera

Un'analisi evidenzia come la spinta cinese verso l'autosufficienza tecnicica stia alimentando ingenti investimenti nei settori dell'intelligenza artificiale e dei data center. Questo trend sottolinea la crescente importanza strategica di questi setto...

#LLM On-Premise #DevOps
2026-02-12 Tom's Hardware

USA: Richiesta di blocco export di tool per chipmaking verso la Cina

Un gruppo bipartisan di legislatori statunitensi chiede il divieto di esportazione verso la Cina di strumenti per la produzione di chip, mirando in particolare alle macchine litografiche di ASML. L'obiettivo è limitare la capacità cinese di sviluppar...

2026-02-12 DigiTimes

Foxconn leader nei server AI, Nvidia elogia la partnership

Jensen Huang, CEO di Nvidia, ha riconosciuto il ruolo di leadership di Foxconn nel settore dei server AI durante un evento aziendale. La collaborazione tra le due aziende si concentra sullo sviluppo di soluzioni hardware avanzate per carichi di lavor...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-12 DigiTimes

Samsung leader nell'HBM4: produzione di massa in arrivo

Samsung annuncia l'inizio della produzione di massa di memorie HBM4, una novità mondiale che potrebbe ridefinire le prestazioni nell'ambito dell'intelligenza artificiale e dell'high-performance computing. Questa mossa consolida la posizione di Samsun...

#Hardware #LLM On-Premise #DevOps
2026-02-12 AI News

Hacker statali sfruttano l'AI per attacchi cyber avanzati

Hacker supportati da stati nazionali stanno usando modelli AI come Gemini per affinare attacchi phishing e sviluppare malware. Gruppi da Iran, Corea del Nord, Cina e Russia sfruttano l'AI per ricognizione, social engineering e sviluppo di codice male...

2026-02-12 DigiTimes

Mistral investe 1,2 miliardi in data center AI svedesi

Mistral AI prevede di investire 1,2 miliardi di euro in Svezia per espandere la propria capacità di calcolo europea tramite nuovi data center dedicati all'intelligenza artificiale. L'iniziativa mira a rafforzare la presenza di Mistral nel panorama eu...

2026-02-12 DigiTimes

TSMC guida i profitti AI, pressione su SMIC e UMC

Le capacità produttive avanzate di TSMC nel settore dei semiconduttori stanno alimentando la crescita dei profitti nel mercato dell'intelligenza artificiale. Altri produttori come SMIC, UMC e VIS si trovano a fronteggiare una crescente pressione per ...

2026-02-12 DigiTimes

Weblink vede ricavi record a gennaio grazie alla domanda di AI

Weblink ha registrato un fatturato record a gennaio, trainato dalla crescente domanda di soluzioni AI nei settori dei data center e consumer. Questo incremento sottolinea l'impatto significativo dell'intelligenza artificiale sull'industria tecnicica ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-12 DigiTimes

L'industria taiwanese dei PCB spinge sull'advanced packaging negli USA

I produttori taiwanesi di circuiti stampati (PCB) si coordinano per supportare lo sviluppo di soluzioni di advanced packaging negli Stati Uniti. L'iniziativa mira a rafforzare la catena di approvvigionamento e a rispondere alla crescente domanda di t...

#LLM On-Premise #DevOps
2026-02-12 DigiTimes

SMIC alza i prezzi dei chip maturi, spinta dall'IA

Il produttore cinese di semiconduttori SMIC avverte che la crescente domanda di soluzioni IA sta modificando i cicli di produzione dei chip. L'azienda ha annunciato un aumento dei prezzi per i nodi di produzione maturi, indicando una forte richiesta ...

#LLM On-Premise #DevOps
2026-02-12 DigiTimes

Taiwan investe 400 miliardi di NT$ per l'autonomia nella difesa

Taiwan ha annunciato un investimento di 400 miliardi di NT$ (circa 12,5 miliardi di dollari USA) per rafforzare la propria autonomia nel settore della difesa. L'iniziativa mira a promuovere lo sviluppo di tecnicie e capacità locali, riducendo la dipe...

#LLM On-Premise #DevOps
2026-02-12 DigiTimes

Musk riorganizza xAI dopo la fusione con SpaceX

Elon Musk ha annunciato una riorganizzazione di xAI a seguito della fusione con SpaceX. I dettagli specifici della riorganizzazione non sono stati resi noti, ma la mossa suggerisce una maggiore integrazione tra le due società.

#LLM On-Premise #DevOps
2026-02-12 DigiTimes

Taiwan lancia acceleratore iSPARK per la filiera spaziale globale

Taiwan punta a rafforzare la sua posizione nella filiera spaziale globale con il lancio di TASA iSPARK, un acceleratore dedicato. L'iniziativa mira a supportare le aziende locali nell'innovazione e nello sviluppo di tecnicie spaziali avanzate, aprend...

2026-02-12 DigiTimes

Operatori taiwanesi investono in AI e cloud dopo i guadagni di gennaio

Gli operatori di Taiwan segnalano una crescita a gennaio e prevedono di aumentare gli investimenti in infrastrutture cloud e soluzioni di intelligenza artificiale. Questa transizione riflette una tendenza globale verso l'adozione di tecnicie avanzate...

#LLM On-Premise #DevOps
2026-02-12 DigiTimes

Cina domina la top 10 mondiale OSAT nel 2025

La Cina si prepara a consolidare la sua posizione nel settore dell'assemblaggio e test di semiconduttori (OSAT). Secondo le previsioni, cinque aziende cinesi figureranno tra le prime dieci a livello globale entro il 2025, un chiaro segnale della cres...

#LLM On-Premise #DevOps
2026-02-12 Phoronix

Linux 7.0: Aggiornamenti ai driver grafici AMD e Intel Xe

Il kernel Linux 7.0 introduce importanti aggiornamenti ai driver grafici DRM (Direct Rendering Manager), con novità per hardware AMD e il supporto SR-IOV per Intel Xe. Inclusi anche miglioramenti per i driver "accel" dedicati ad acceleratori AI come ...

#Hardware #LLM On-Premise #DevOps
2026-02-11 DigiTimes

Young Optics punta sull'AI per ridurre le perdite

Young Optics sta riorientando la sua attività verso prodotti focalizzati sull'intelligenza artificiale, nel tentativo di migliorare la propria situazione finanziaria e ridurre le perdite. La società punta su nuove aree di crescita nel settore dell'AI...

2026-02-11 TechCrunch AI

Modal Labs punta a una valutazione di 2,5 miliardi di dollari

La startup di inference AI Modal Labs è in trattative per un nuovo round di finanziamento guidato da General Catalyst, che porterebbe la sua valutazione a 2,5 miliardi di dollari. L'azienda, fondata quattro anni fa, si sta rapidamente affermando nel ...

#LLM On-Premise #DevOps
2026-02-11 Tom's Hardware

Ryzen 7 9800X3D: PBO e prestazioni gaming al top

Test dimostrano che il Ryzen 7 9800X3D, con semplici impostazioni PBO (Precision Boost Overdrive), può raggiungere le prestazioni del più costoso Ryzen 7 9850X3D nei giochi. L'incremento di clock del modello superiore non si traduce in un vantaggio t...

#Hardware
2026-02-11 The Register AI

Data center europei: solo il 20% è pronto per l'AI

Un report evidenzia che solo il 20% dei data center in Europa e Medio Oriente è attrezzato per gestire carichi di lavoro di intelligenza artificiale. La carenza di competenze e i colli di bottiglia nella rete elettrica minacciano di ostacolare l'espa...

#LLM On-Premise #DevOps
2026-02-11 Tom's Hardware

Microsoft esplora superconduttori per data center AI

Microsoft sta valutando l'uso di cavi superconduttori per alimentare i suoi data center dedicati all'intelligenza artificiale. Questa tecnicia promette di ridurre le perdite di potenza e l'emissione di calore, migliorando l'efficienza energetica comp...

#LLM On-Premise #DevOps
2026-02-11 DigiTimes

Rimpasto nel management di GPTC: implicazioni per ordini a TSMC?

Un cambio ai vertici di GPTC solleva interrogativi sulla stabilità degli ordini a fornitori chiave come TSMC, ASE e Micron. La riorganizzazione potrebbe avere ripercussioni sulla catena di approvvigionamento di componenti essenziali per l'intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-02-11 DigiTimes

Fornitore TSMC, boom ricavi grazie al packaging di chip AI

AblePrint, fornitore di TSMC, prevede un aumento del 142% dei ricavi a gennaio 2026, spinto dalla forte domanda di servizi di packaging avanzato per i chip destinati ad applicazioni di intelligenza artificiale. La crescita riflette la crescente impor...

2026-02-11 The Register AI

Google punta sull'AI per la pubblicità, mentre OpenAI cerca l'equilibrio

Mentre OpenAI esplora l'integrazione della pubblicità nei suoi servizi AI, Google intensifica l'utilizzo dell'intelligenza artificiale per migliorare i suoi prodotti pubblicitari. L'azienda non mostra annunci direttamente in Gemini, ma sfrutta l'AI i...

#LLM On-Premise #DevOps
2026-02-11 DigiTimes

Taiwan punta a rafforzare l'infrastruttura energetica

Il premier taiwanese Jung-tai Cho ha ribadito l'impegno del governo a migliorare l'infrastruttura energetica dell'isola. L'iniziativa mira a garantire un approvvigionamento energetico stabile e sostenibile per sostenere la crescita economica e la com...

2026-02-11 DigiTimes

SMIC: analisi del ciclo di memoria AI e implicazioni sui margini

Un'analisi approfondita del ruolo di SMIC nel ciclo di memoria per applicazioni di intelligenza artificiale, con un focus sulle dinamiche di capacità produttiva e sui potenziali rischi per i margini di profitto. Implicazioni per il mercato dei semico...

#Hardware #LLM On-Premise #DevOps
2026-02-11 The Register AI

Open Compute guarda a IOWN per datacenter distribuiti

L'Open Compute Project (OCP) punta a definire specifiche per datacenter distribuiti. La collaborazione con IOWN (Innovative Optical and Wireless Network) mira a sfruttare tecnicie all-optical per superare i limiti delle connessioni tradizionali, esse...

#LLM On-Premise #DevOps
2026-02-11 DigiTimes

AUO punta su AI, ottica e satelliti per diversificare i ricavi

Il produttore di display AUO sta diversificando il proprio business, puntando su intelligenza artificiale, ottica e tecnicie satellitari. L'obiettivo è stabilizzare i margini e modificare il mix di entrate entro il 2030, riducendo la dipendenza dal m...

2026-02-11 DigiTimes

Domanda di memoria per AI mette sotto pressione i PC industriali

La crescente domanda di memoria per applicazioni di intelligenza artificiale sta creando difficoltà per i produttori di PC industriali. I margini si assottigliano e i tempi di consegna si allungano a causa della scarsità di componenti e dell'aumento ...

#LLM On-Premise #DevOps
2026-02-10 DigiTimes

Alibaba punta a stack AI di livello Google: chip, cloud e modello integrati

Alibaba sta sviluppando uno stack completo per l'intelligenza artificiale, integrando chip proprietari, infrastruttura cloud e modelli AI. L'obiettivo è competere con le soluzioni offerte da Google e altri leader del settore, ottimizzando le prestazi...

#Hardware #LLM On-Premise #DevOps
2026-02-10 DigiTimes

Novatek prevede crescita di memoria e edge AI visiva entro il 2026

Secondo DIGITIMES, Novatek prevede che la domanda di memoria e soluzioni di edge AI visiva sarà in forte crescita entro il 2026. Questo riflette un trend verso l'elaborazione distribuita e l'importanza crescente dell'intelligenza artificiale nei disp...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-10 TechCrunch AI

Pattinaggio su ghiaccio e AI: quando l'IA crea musica... e plagi!

La coppia di ballerini su ghiaccio cechi Katerina Mrazkova e Daniel Mrazek ha scoperto che i modelli linguistici di grandi dimensioni (LLM) possono generare brani musicali che, inaspettatamente, si rivelano essere plagi. Un'esperienza che solleva int...

#LLM On-Premise #DevOps
2026-02-10 Phoronix

Linux 7.0: supporto mainline per SpacemiT K3 RVA23 e Qualcomm Kaanapali

Il kernel Linux 7.0 introduce il supporto per i SoC SpacemiT K3 RVA23 e Qualcomm Kaanapali. Questa integrazione rappresenta un passo avanti significativo per l'adozione di architetture ARM e RISC-V, ampliando le opzioni hardware disponibili per gli s...

#Hardware #LLM On-Premise #DevOps
2026-02-10 Tom's Hardware

Boom dell'AI: memorie in crescita, ricavi a 551 miliardi nel 2026

Il mercato delle memorie è destinato a beneficiare enormemente dalla crescita dell'intelligenza artificiale. Le previsioni indicano che i ricavi raggiungeranno i 551 miliardi di dollari entro il 2026, trainati dalla forte domanda da parte dei data ce...

#LLM On-Premise #DevOps
2026-02-10 Tom's Hardware

Asus ROG Crosshair X870E Glacial: Nuova ammiraglia per AMD

Asus lancia la ROG Crosshair X870E Glacial, una scheda madre di fascia alta progettata per i processori AMD Ryzen. Questa scheda madre si posiziona come una nuova ammiraglia, offrendo funzionalità avanzate e un design ottimizzato per le massime prest...

#Hardware
2026-02-10 Tech.eu

UK punta sull'AI: chipmaker Fractile investe 100 milioni di sterline

Il governo britannico esorta le startup tech a osare di più nel settore dell'intelligenza artificiale, promettendo supporto e investimenti. Fractile, azienda specializzata in chip per inference LLM, investirà 100 milioni di sterline nel Regno Unito p...

#Hardware #LLM On-Premise #DevOps
2026-02-10 DigiTimes

Analisi dei finanziamenti AI in Asia: il ruolo chiave di Alphabet

Un'analisi dei flussi finanziari che alimentano lo sviluppo dell'intelligenza artificiale in Asia, con un focus sul ruolo di Alphabet e sui suoi investimenti strategici nella regione. La competizione per l'egemonia nell'AI si gioca anche sul piano fi...

2026-02-10 DigiTimes

Espansione Nexchip Fase IV: supporto a SmartSens e Xiaomi per CIS

L'espansione della Fase IV di Nexchip Semiconductor mira a rafforzare la catena di approvvigionamento nazionale di sensori di immagine CMOS (CIS) per aziende come SmartSens e Xiaomi. L'iniziativa punta a ridurre la dipendenza da fornitori esteri nel ...

#LLM On-Premise #DevOps
2026-02-10 DigiTimes

L'Europa accelera lo sviluppo di chip AI a 2nm con NanoIC

L'iniziativa NanoIC mira a rafforzare la capacità europea nella produzione di chip avanzati per l'intelligenza artificiale. Questo progetto pilota si concentra sullo sviluppo di tecnicie a 2nm, essenziali per le future applicazioni AI ad alte prestaz...

#LLM On-Premise #DevOps
2026-02-10 DigiTimes

Panjit punta su semiconduttori hot-swap per data center AI

Panjit prevede una crescita rapida nel mercato dei semiconduttori di potenza per data center AI, grazie alla tecnicia hot-swap. L'azienda punta a soddisfare la crescente domanda di soluzioni efficienti e affidabili per l'alimentazione dei sistemi di ...

#LLM On-Premise #DevOps
2026-02-10 DigiTimes

Nvidia accelera le trattative su HBM e AI: segnali da una cena informale

Indiscrezioni suggeriscono che Nvidia stia accelerando le discussioni sulla memoria HBM e sulla collaborazione nel campo dell'intelligenza artificiale. Un incontro informale potrebbe essere un segnale di progressi rapidi nelle trattative, cruciali pe...

#Hardware #LLM On-Premise #DevOps
2026-02-10 DigiTimes

Server AI di Asus spingono i ricavi nonostante la carenza di memorie

Nonostante le persistenti difficoltà di approvvigionamento di memorie, la spinta di Asus nel mercato dei server dedicati all'intelligenza artificiale sta contribuendo positivamente ai ricavi. La domanda di soluzioni hardware per carichi di lavoro AI ...

#Hardware #LLM On-Premise #DevOps
2026-02-10 DigiTimes

Anthropic accelera: nuovi data center per l'IA?

Secondo indiscrezioni, Anthropic starebbe investendo massicciamente in infrastrutture di calcolo dedicate. Questa mossa segnala una crescente competizione nel settore dell'intelligenza artificiale, dove la capacità di calcolo è un fattore critico per...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

SK Group investe 10 miliardi di dollari in AI: incontro con Nvidia

Il presidente di SK Group, Chey Tae-won, ha incontrato i vertici di Nvidia mentre il gruppo coreano investe 10 miliardi di dollari in iniziative legate all'intelligenza artificiale. L'incontro sottolinea l'importanza della collaborazione con i princi...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

PC AI: Intel e AMD dominano, Qualcomm fatica nell'adozione enterprise

Secondo DIGITIMES, Intel e AMD rafforzano la loro presenza nel mercato dei PC AI. Qualcomm, pur offrendo soluzioni valide, incontra maggiori difficoltà nell'adozione da parte delle aziende. La competizione nel settore si fa sempre più intensa, con im...

#Hardware
2026-02-09 Tom's Hardware

John Carmack esplora l'uso di fibra ottica come cache L2 per dati AI

John Carmack ipotizza sull'utilizzo di linee in fibra ottica come alternativa alla DRAM per lo streaming di dati AI. L'idea è di sfruttare la bassa latenza e l'alta larghezza di banda della fibra per creare una cache di secondo livello efficiente.

#Hardware
2026-02-09 Tom's Hardware

Taiwan: no a trasferimento capacità semiconduttori negli USA

Taiwan ha respinto l'ipotesi di trasferire il 40% della propria capacità produttiva di semiconduttori negli Stati Uniti. L'aumento della produzione a Taiwan dovrebbe avvenire di pari passo con l'incremento della produzione negli Stati Uniti.

2026-02-09 Phoronix

AMD prepara il supporto "PTL" per limitare i picchi di consumo

AMD sta implementando il supporto per il Peak Tops Limiter (PTL) nei driver grafici del kernel Linux AMDGPU e AMDKFD. Questa funzionalità, destinata agli acceleratori Instinct, mira a gestire e limitare i picchi di consumo energetico.

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

MediaTek punta sui 2nm di TSMC e sull'AI computing

MediaTek si prepara ad adottare i processi a 2nm e A14 di TSMC, con un focus sull'incremento della potenza di calcolo per l'intelligenza artificiale. Questa mossa strategica mira a posizionare MediaTek come leader nel settore dei chip ad alte prestaz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-09 DigiTimes

Tower Semiconductor e Nvidia: moduli ottici 1.6T per data center AI

Tower Semiconductor e Nvidia collaborano per sviluppare moduli ottici da 1.6T destinati a migliorare le prestazioni delle reti nei data center AI. Questa tecnicia promette di accelerare significativamente il trasferimento dati, cruciale per le applic...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

Investimenti AI minacciano i flussi di cassa delle Big Tech

L'accelerazione degli investimenti nel settore dell'intelligenza artificiale sta mettendo sotto pressione i flussi di cassa delle principali aziende tecniciche. La necessità di sostenere la crescente domanda di risorse computazionali per l'addestrame...

#Hardware
2026-02-08 DigiTimes

Budget indiano punta su AI e semiconduttori: le implicazioni

Il budget annuale dell'India prevede un forte impulso all'ecosistema dell'intelligenza artificiale e dei semiconduttori. L'iniziativa mira a posizionare l'India come hub tecnicico globale, con investimenti mirati in ricerca e sviluppo, infrastrutture...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Boom dell'AI spinge la crescita di Taiwan ai massimi da 15 anni

La crescita economica di Taiwan accelera grazie alla forte domanda nel settore dell'intelligenza artificiale, superando i timori di delocalizzazione. L'aumento della domanda di semiconduttori ad alte prestazioni, essenziali per i carichi di lavoro AI...

#Fine-Tuning
2026-02-08 LocalLLaMA

Cluster AMD Strix Halo: Inference LLM Distribuita con RDMA RoCE v2

Un cluster a due nodi basato su AMD Strix Halo, interconnesso tramite Intel E810 (RoCE v2), è stato realizzato per l'inference distribuita di LLM utilizzando Tensor Parallelism. I benchmark e la guida alla configurazione sono disponibili online, apre...

#Hardware #LLM On-Premise #DevOps
2026-01-29 TechCrunch AI

SpaceX e xAI verso la fusione? Un report ne discute i vantaggi

Secondo un report, sarebbero in corso discussioni per una possibile fusione tra SpaceX e xAI, la società di intelligenza artificiale fondata da Elon Musk. L'operazione unirebbe il chatbot Grok, i satelliti Starlink e i razzi di SpaceX sotto un'unica ...

2026-01-29 Tom's Hardware

Huang (Nvidia): capacità produttiva chip di Taiwan al sicuro

Il CEO di Nvidia, Jensen Huang, smentisce le voci di un trasferimento del 40% della capacità produttiva di chip di Taiwan negli Stati Uniti. Huang afferma che l'espansione globale di TSMC è essenziale per soddisfare l'elevata domanda di semiconduttor...

#Hardware #LLM On-Premise #DevOps
2026-01-28 DigiTimes

Taiwan leader nei ricavi da display auto, Cina domina i volumi

Secondo DIGITIMES, Taiwan è in testa per i ricavi nel mercato dei display per auto, mentre la Cina detiene la leadership in termini di volumi di produzione. Questo riflette le diverse strategie e specializzazioni delle due regioni nel settore automob...

2026-01-28 TechCrunch AI

Waabi raccoglie 1 miliardo di dollari e si espande nei robotaxi con Uber

Waabi ha ottenuto 750 milioni di dollari in un round di Serie C per accelerare lo sviluppo di camion autonomi. Inoltre, Uber si è impegnata a investire circa 250 milioni di dollari per schierare 25.000 robotaxi esclusivamente sulla sua piattaforma.

#LLM On-Premise #DevOps
2026-01-28 DigiTimes

ASML prevede una forte domanda di chip oltre il 2025

I dirigenti di ASML prevedono una solida domanda di chip anche dopo il 2025. L'azienda, leader nella produzione di sistemi per la litografia a semiconduttori, si aspetta una crescita continua nel settore, nonostante le fluttuazioni a breve termine de...

2026-01-28 LocalLLaMA

Studio Stanford: agenti di codice paralleli, una truffa?

Una ricerca di Stanford e SAP mette in discussione l'efficacia degli agenti di codice paralleli. I risultati indicano che l'aggiunta di un secondo agente riduce significativamente la performance, a causa di problemi di coordinamento e comunicazione. ...

#LLM On-Premise #DevOps
2026-01-28 DigiTimes

Crisi Nexperia: impatti sulla supply chain automotive 'non-red'

La crisi che coinvolge Nexperia, produttore di semiconduttori, continua a generare ripercussioni significative sulle catene di approvvigionamento del settore automobilistico, in particolare per quelle aziende che non rientrano nella sfera di influenz...

#LLM On-Premise #DevOps
2026-01-28 DigiTimes

Tesla diversifica la produzione del chip AI5 tra TSMC e Samsung

Tesla ha deciso di diversificare la produzione del suo chip AI5, destinato alle applicazioni di intelligenza artificiale, affidandosi sia a TSMC che a Samsung. Questa mossa strategica potrebbe essere motivata dalla volontà di mitigare i rischi legati...

#LLM On-Premise #DevOps
2026-01-28 DigiTimes

Nvidia: Jensen Huang preferisce "sedie vuote" ad assunzioni sbagliate

Il CEO di Nvidia, Jensen Huang, sottolinea l'importanza di evitare assunzioni inadatte, preferendo mantenere posizioni aperte piuttosto che compromettere la qualità del team. Nvidia, a quanto pare, ha un "parco" di circa 60 potenziali futuri CEO.

#Hardware #LLM On-Premise #DevOps
2026-01-27 Phoronix

Intel DG2: nuovo codice Linux promette boost fino al 260%

Nuove patch per Mesa 26.1 risolvono problemi di corruzione grafica su hardware Intel Meteor Lake e DG2/Alchemist. In alcuni scenari, si osserva un incremento prestazionale fino al 260%, rendendo le GPU Intel più competitive in determinati carichi di ...

#Hardware #LLM On-Premise #DevOps
2026-01-27 Phoronix

AMD Radeon: decodifica video a bassa latenza su Linux

Il driver RadeonSI Gallium3D di AMD introduce una nuova modalità di decodifica video a bassa latenza nella prossima release Mesa 26.1. Questa funzionalità offre tempi di risposta più rapidi, ma con un potenziale aumento del consumo energetico della G...

#Hardware #LLM On-Premise #DevOps
2026-01-26 DigiTimes

Foxconn e Hotai puntano al mercato giapponese: analisi

Secondo DIGITIMES, Foxconn e Hotai, due colossi del settore manifatturiero e automobilistico, stanno concentrando i loro sforzi sul mercato giapponese. Questa mossa strategica mira a capitalizzare nuove opportunità in un mercato notoriamente compless...

#LLM On-Premise #DevOps
2026-01-26 Tech.eu

Vennre raccoglie 9,6 milioni per espandere la piattaforma MENA

Vennre, piattaforma per la creazione di ricchezza con sede nel Regno Unito, ha raccolto 9,6 milioni di dollari in un round di pre-Serie A. L'obiettivo è espandere la base clienti e lanciare nuove funzionalità, rafforzando la presenza in Arabia Saudit...

2026-01-26 Phoronix

ASRock Rack PAUL: supporto Linux per la scheda PCIe IPMI

La scheda ASRock Rack PAUL, dotata di controller ASPEED AST2500, riceve supporto nel kernel Linux grazie a nuove patch. Questa scheda PCIe a basso profilo fornisce funzionalità IPMI/BMC per diverse piattaforme.

#LLM On-Premise
2026-01-26 DigiTimes

Samsung pronta a spedire HBM4 a Nvidia e AMD da febbraio

Samsung si prepara ad avviare le consegne della sua memoria HBM4 a Nvidia e AMD a partire da febbraio. Questa nuova generazione di memoria ad alta larghezza di banda è cruciale per accelerare le prestazioni delle GPU e dei sistemi di calcolo ad alte ...

#Hardware #LLM On-Premise #DevOps
2026-01-26 DigiTimes

Aziende USA della difesa rafforzano le partnership con Taiwan

Importanti aziende statunitensi del settore difesa ampliano la loro collaborazione con Taiwan. L'iniziativa mira a rafforzare le capacità tecniciche e di difesa dell'isola, in un contesto geopolitico sempre più complesso. La cooperazione potrebbe inc...

#LLM On-Premise #DevOps
2026-01-26 DigiTimes

Innovazione nella memoria: opportunità per startup e PMI

La crescente domanda di capacità di memoria spinge l'innovazione nel settore. Startup e PMI si trovano di fronte a nuove opportunità per sviluppare soluzioni avanzate, essenziali per sostenere i carichi di lavoro di intelligenza artificiale e altre a...

#LLM On-Premise #DevOps
2026-01-26 Tech.eu

2150 raccoglie 210 milioni di euro per investimenti climate tech

La società di venture capital 2150 ha annunciato la chiusura del suo secondo fondo da 210 milioni di euro, portando il totale degli asset in gestione a 500 milioni di euro. Il fondo si concentra su aziende tecniciche che mirano a rimodellare le città...

2026-01-26 DigiTimes

Efficienza energetica: chiave per il futuro del calcolo AI

L'efficienza nella trasmissione di potenza sta diventando un fattore critico per lo sviluppo dell'intelligenza artificiale e la competitività regionale. Ottimizzare il consumo energetico è essenziale per ridurre i costi operativi e l'impatto ambienta...

#Hardware #LLM On-Premise #DevOps
2026-01-25 DigiTimes

iPhone 17: domanda elevata mette sotto pressione i fornitori taiwanesi

La forte domanda per i modelli di fascia alta di iPhone 17 sta mettendo a dura prova le catene di approvvigionamento dei fornitori taiwanesi. I vettori faticano a soddisfare gli ordini iniziali, segno di un rinnovato interesse per i dispositivi premi...

#LLM On-Premise
2026-01-25 The Next Web

UE: società uniche per startup e stop agli impianti "a rischio"

L'Unione Europea accelera sull'innovazione: nasce "EU Inc", una struttura legale unificata per le startup. Contestualmente, si punta a eliminare i fornitori tecnicici considerati "ad alto rischio" dalle infrastrutture critiche. Misure che puntano a r...

2026-01-25 The Register AI

Emmabuntüs DE 6: la distro Linux etica per i neofiti

Emmabuntüs DE 6 è una distribuzione Linux pensata per chi si avvicina per la prima volta al mondo del software libero. Punta a ridurre i rifiuti elettronici e supporta iniziative di beneficenza, offrendo documentazione chiara e strumenti accessibili.

2026-01-25 Tom's Hardware

Intel 486: scheda madre open-source creata in soli sei mesi

Un appassionato ha sviluppato da zero una scheda madre open-source per processori Intel 486 in meno di sei mesi. L'obiettivo iniziale era la compatibilità con Linux e Doom, ma il progetto sembra offrire molto di più. La scheda madre M8SBC-486 rappres...

#Hardware
2026-01-25 LocalLLaMA

Moondream3: che fine ha fatto il promettente modello visuale?

Il modello visuale Moondream3, presentato l'anno scorso, sembra essere sparito dai radar. Nonostante una versione MLX sia disponibile, mancano implementazioni Llama.cpp e aggiornamenti pubblici. La comunità si interroga sul futuro di questo prometten...

#LLM On-Premise
2026-01-25 Phoronix

Focusrite Forte: supporto Linux 7.0 per l'interfaccia audio USB

L'interfaccia audio USB Focusrite Forte, soluzione portatile per la registrazione audio (2-in, 4-out), sarà supportata dal kernel Linux 7.0. Le patch necessarie sono in coda nell'albero di sviluppo del sottosistema audio del kernel Linux. Il disposit...

#Hardware
← Torna ai Topic