Topic / Trend Rising

IA Open Source e LLM Locali

La comunità AI open source è in piena espansione, con sforzi per sviluppare e implementare LLM in locale, migliorare l'efficienza e affrontare casi d'uso specifici. Ciò include discussioni sulla quantization dei modelli, l'ottimizzazione dell'hardware e la collaborazione della comunità.

Detected: 2026-02-06 · Updated: 2026-02-27

Articoli Correlati

2026-02-27 ArXiv cs.CL

GPT-5: Analisi contestuale e prompt engineering spinto

Un nuovo studio esplora l'uso di LLM, nello specifico GPT-5, per l'analisi del contesto di citazioni testuali. La ricerca si concentra sulla sensibilità dei prompt, variando la loro struttura per valutare come influenzano le interpretazioni del model...

2026-02-27 ArXiv cs.CL

Distillazione di conoscenza semantica per LLM con architettura decoder

Un nuovo framework, Decoder-based Sense Knowledge Distillation (DSKD), integra risorse lessicali strutturate nell'addestramento di modelli linguistici di grandi dimensioni (LLM) con architettura decoder. Questo approccio migliora le consegne senza ri...

#LLM On-Premise #DevOps
2026-02-27 ArXiv cs.LG

IA per rilevare il rischio di ictus tramite sintomi auto-riferiti

Un nuovo sistema di sorveglianza passiva, basato su intelligenza artificiale e grafi, mira a identificare precocemente il rischio di ictus in soggetti ad alto rischio, analizzando i sintomi riportati dai pazienti stessi. L'approccio combina una tasso...

#LLM On-Premise #DevOps
2026-02-27 ArXiv cs.AI

Generazione di idee scientifiche con LLM e grafi di co-autori

Un nuovo sistema, GYWI, combina grafi di conoscenza degli autori con la generazione aumentata dal recupero (RAG) per fornire un contesto accademico controllabile e percorsi di ispirazione tracciabili per i modelli linguistici di grandi dimensioni (LL...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-27 The Register AI

Nuovo fondo per progetti open source: in arrivo finanziamenti?

L'Open Source Endowment (OSE) si propone come una nuova fonte di finanziamento per i progetti open source, spesso a corto di risorse. L'iniziativa mira a supportare progetti critici ma sottovalutati, fornendo un flusso di entrate potenzialmente signi...

#LLM On-Premise #DevOps
2026-02-26 DigiTimes

Yageo prevede un ottimo 1Q26 grazie agli ordini AI

Il produttore di componenti Yageo prevede una forte crescita nel primo trimestre del 2026, trainata dalla domanda nel settore dell'intelligenza artificiale. La società non prevede, per il momento, un impatto significativo della carenza di memorie sul...

#Hardware #LLM On-Premise #DevOps
2026-02-26 TechCrunch AI

Meta e Prada: in arrivo occhiali AI co-branded?

L'apparizione di Mark Zuckerberg all'evento di Prada durante la settimana della moda di Milano ha alimentato le speculazioni sull'arrivo di occhiali Meta AI realizzati in collaborazione con il marchio di moda italiano. Resta da vedere quali saranno l...

#LLM On-Premise #DevOps
2026-02-26 Ars Technica AI

Google presenta Nano Banana 2, generazione immagini AI più rapida

Google ha rilasciato Nano Banana 2 (Gemini 3.1 Flash Image), un nuovo modello di generazione di immagini AI che promette prestazioni paragonabili alla versione Pro, ma con la velocità della variante Flash. Il modello vanta una conoscenza del mondo re...

2026-02-26 TechCrunch AI

Google lancia Nano Banana 2: generazione immagini più rapida

Google ha annunciato Nano Banana 2, una nuova versione del suo modello di intelligenza artificiale focalizzato sulla generazione di immagini. Il modello sarà integrato come opzione predefinita nell'app Gemini e nella modalità AI, promettendo prestazi...

#LLM On-Premise #DevOps
2026-02-26 Google AI Blog

Nano Banana 2: Generazione immagini alla velocità della luce

Il nuovo modello di generazione immagini Nano Banana 2 promette velocità elevatissime, mantenendo al contempo capacità avanzate e coerenza dei soggetti. L'obiettivo è fornire strumenti di livello professionale accessibili e rapidi.

#Hardware #LLM On-Premise #DevOps
2026-02-26 TechCrunch AI

Figma integra Codex di OpenAI per l'assistenza alla programmazione

Figma ha stretto una partnership con OpenAI per integrare Codex, l'assistente alla programmazione basato su intelligenza artificiale. Questa mossa segue un annuncio simile riguardante l'integrazione con Claude Code di Anthropic, segnalando un crescen...

#LLM On-Premise #DevOps
2026-02-26 OpenAI Blog

OpenAI Codex e Figma: integrazione per accelerare lo sviluppo

OpenAI e Figma hanno annunciato una nuova integrazione tra Codex e la piattaforma di design Figma. L'obiettivo è di fluidificare il passaggio tra la fase di ideazione visiva e l'implementazione del codice, permettendo ai team di sviluppare e rilascia...

2026-02-26 Tech.eu

FlyFocus raccoglie 4,5 milioni di euro per droni europei

FlyFocus, azienda polacca specializzata in sistemi aerei senza pilota (UAS), ha ottenuto 4,5 milioni di euro in un round di finanziamento. L'investimento, guidato da ffVC, sosterrà la costruzione di un impianto di produzione in Polonia e l'espansione...

2026-02-26 LocalLLaMA

Qwen3.5-27B-heretic: modello GGUF disponibile su Hugging Face

Una versione del modello linguistico Qwen3.5-27B, denominata "heretic", è stata resa disponibile in formato GGUF su Hugging Face. Il formato GGUF è progettato per l'inference efficiente su CPU, rendendolo adatto per l'esecuzione di modelli localmente...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen3.5-35B-A3B: promettenti sviluppi per i modelli linguistici

La comunità open source segnala progressi significativi con il modello linguistico Qwen3.5-35B-A3B. In particolare, si discute di un framework per il testing semantico di query SQL. Resta alta l'attesa per una versione più piccola, Qwen3.5-4B.

#LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Quantization LLM: un labirinto di opzioni?

La proliferazione di tecniche di quantization per i modelli linguistici di grandi dimensioni (LLM) sta creando non poche difficoltà. La scelta tra diversi metodi, come UD di Unsloth o autoround di Intel, e i vari livelli di quantization (q2, q3, q4, ...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen 3.5: Stop al download delle versioni GGUF di Unsloth

È stato riscontrato un problema nelle versioni quantizzate GGUF di Qwen 3.5, sviluppate da Unsloth. Si raccomanda di interrompere il download di queste versioni e attendere una correzione. La collaborazione tra i membri della comunità ha permesso di ...

2026-02-25 The Register AI

Cloudflare: porting di Next.js API con AI per aggirare Vercel

Un ingegnere di Cloudflare afferma di aver implementato il 94% delle API Next.js utilizzando l'AI di Anthropic (Claude) e Vite. L'obiettivo è creare un tool di build open source alternativo, riducendo la dipendenza da Vercel. Il costo stimato per i t...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

Cerebras rilancia la sua IPO grazie all'accordo con OpenAI

Cerebras, azienda specializzata in hardware per l'intelligenza artificiale, punta a rilanciare la sua offerta pubblica iniziale (IPO). Un accordo strategico con OpenAI potrebbe fornire un impulso significativo alla sua valutazione e attrarre nuovi in...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Distillazione fai-da-te, training per noi: una riflessione

Un'immagine diventata virale nella comunità LocalLLaMA evidenzia la percezione di molti utenti: la distillazione dei modelli è vista come un compito alla portata di tutti, mentre l'addestramento completo è appannaggio di chi dispone di risorse comput...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-23 LocalLLaMA

Anthropic non ha mai rilasciato LLM open-source: implicazioni

Un utente ha notato che Anthropic non ha mai reso open-source i tokenizzatori dei suoi modelli linguistici (LLM), a differenza di Google (Gemma, Gemini), OpenAI (GPT) e Meta (Llama). Questo limita la possibilità di analizzare l'efficienza dei tokeniz...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

GLM-5 supera Kimi K2.5 nel benchmark NYT Connections

Il modello GLM-5 ha raggiunto un nuovo primato nel benchmark Extended NYT Connections, superando Kimi K2.5 Thinking. Questo risultato evidenzia i progressi nel campo dei modelli linguistici open-source e la loro capacità di risolvere compiti compless...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Open Source LLM: Anthropic teme la concorrenza?

Un post su Reddit ipotizza che Anthropic stia reagendo all'aumento di popolarità dei modelli open source, in particolare nel contesto degli agenti AI. L'articolo cita l'adozione crescente di modelli come Kimi K2.5 e Minimax M2.5 sulla piattaforma Ope...

2026-02-23 TechCrunch AI

Guide Labs presenta un LLM interpretabile da 8 miliardi di parametri

Guide Labs ha rilasciato Steerling-8B, un modello linguistico di grandi dimensioni (LLM) open-source con 8 miliardi di parametri. La sua architettura è progettata per migliorare l'interpretabilità delle sue azioni, facilitando la comprensione del pro...

2026-02-23 LocalLLaMA

Framework open-source per LLM locali: performance Gemini 3/GPT-5.2

Un nuovo framework open-source mira a colmare il divario prestazionale tra i modelli linguistici di grandi dimensioni (LLM) proprietari e le alternative eseguite localmente. L'obiettivo è raggiungere livelli di performance paragonabili a Gemini 3 Dee...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Agenti LLM locali: GPT-OSS 20B alla prova su macOS

Un utente ha sperimentato con successo l'agente Zeroclaw, basato su un modello GPT-OSS 20B eseguito localmente, per interagire con applicazioni macOS, pagine web e file locali. L'utente sottolinea i limiti del modello, come la perdita di focus dopo u...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

LLM locali: il futuro è nell'inference on-premise?

Un post su Reddit pone una domanda cruciale: in futuro, l'inference dei modelli linguistici di grandi dimensioni (LLM) avverrà prevalentemente in locale? I vantaggi includono controllo totale, privacy e assenza di costi API ricorrenti, a fronte di pr...

#Hardware #LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Test di Qwen3-code-next su Mac Studio Ultra: un'analisi

Un utente ha testato Qwen3-code-next su un Mac Studio Ultra con 128GB di RAM, riscontrando prestazioni inizialmente promettenti nello sviluppo di codice. Tuttavia, con l'aumentare della complessità del progetto e del contesto, sono emersi problemi di...

2026-02-22 LocalLLaMA

NanoLLama: addestramento Llama 3 da zero e export in GGUF

È stato rilasciato NanoLLama, un framework open source per l'addestramento di modelli Llama 3 partendo da zero, senza fine-tuning o LoRA. Il tool permette l'export in formato GGUF compatibile con llama.cpp tramite un singolo comando. Include configur...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-22 LocalLLaMA

Kon: un agente di sviluppo compatto per LLM locali

Uno sviluppatore ha presentato Kon, un agente di sviluppo progettato per essere leggero e facilmente comprensibile. Kon è pensato per essere eseguito localmente, con un footprint di token ridotto e un numero limitato di file, facilitandone la persona...

#Hardware #LLM On-Premise #DevOps
2026-02-22 LocalLLaMA

OpenClaw: le skills contano più del runner?

Un utente di LocalLLaMA mette in discussione l'eccessivo entusiasmo per OpenClaw, un framework per LLM. Pur riconoscendone l'utilità in loop, gestione della memoria, agenti e integrazioni, l'utente sottolinea come le skills sviluppate o integrate sia...

2026-02-22 LocalLLaMA

LLM Locali: cresce l'attesa per modelli da 9B e 35B parametri

La community open source focalizzata sull'esecuzione di modelli linguistici di grandi dimensioni (LLM) in locale, tramite l'iniziativa LocalLLaMA, discute attivamente le aspettative per i prossimi modelli da 9 e 35 miliardi di parametri. L'interesse ...

#Hardware #LLM On-Premise #DevOps
2026-02-21 LocalLLaMA

L'importanza di figure chiave nell'innovazione LLM open source

Un post su Reddit evidenzia l'impatto potenziale di figure di spicco come Andrej Karpathy nello sviluppo di modelli linguistici di grandi dimensioni (LLM) open source. La discussione sottolinea come la presenza di esperti possa accelerare significati...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-21 LocalLLaMA

GLM-4.7: Modello Distillato per Ragionamento Avanzato in Locale

È disponibile su Hugging Face un modello distillato, denominato GLM-4.7, progettato per offrire capacità di ragionamento avanzate. Questa versione, menzionata da Unsloth, mira a fornire prestazioni elevate in contesti di utilizzo locale. Il modello è...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Modelli cinesi dominano OpenRouter: superati i 3 trilioni di token

La piattaforma OpenRouter registra un'impennata nell'utilizzo di modelli di linguaggio di origine cinese. Per la prima volta, un modello supera i 3 trilioni di token elaborati in una settimana, e più modelli superano il trilione, segnando un cambio d...

#LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Hugging Face acquisisce GGML e llama.cpp per l'AI locale

Hugging Face ha annunciato l'acquisizione di GGML e llama.cpp, due progetti open source cruciali per l'esecuzione efficiente di modelli di linguaggio di grandi dimensioni (LLM) su hardware consumer. L'obiettivo è garantire lo sviluppo a lungo termine...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Hugging Face acquisisce GGML.AI, focalizzata su inference LLM efficiente

Hugging Face ha acquisito GGML.AI, nota per il suo lavoro sull'inference efficiente di modelli linguistici di grandi dimensioni (LLM). L'acquisizione, discussa su Reddit e GitHub, potrebbe portare a una maggiore integrazione delle tecnicie di GGML ne...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Deepseek e Gemma: confronto nella community LocalLLaMA

Un post su Reddit, nella comunità LocalLLaMA, mette a confronto i modelli Deepseek e Gemma. La discussione verte sulle caratteristiche e le performance di questi modelli, con un focus sull'utilizzo in contesti locali. L'articolo originale include un'...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

GLM-5 in Arrivo: Indizi nel codice di vLLM

Indiscrezioni sul prossimo modello linguistico GLM-5 emergono da una pull request relativa a vLLM, un framework per l'inference di LLM. La notizia, diffusa inizialmente su Reddit, suggerisce che il nuovo modello potrebbe presto essere integrato e dis...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

OpenClaw e Cowork competono per agenti AI desktop in Cina

Le aziende cinesi OpenClaw e Cowork stanno sviluppando agenti AI desktop, segnalando una crescente competizione nel settore dell'intelligenza artificiale per applicazioni locali. Questa tendenza riflette un interesse per soluzioni AI che possono oper...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

Errori di Temporizzazione nell'Inference di LLM: Un'Analisi

Un post su Reddit mette in luce come errori di temporizzazione possano compromettere l'inference di modelli linguistici di grandi dimensioni (LLM). L'immagine allegata suggerisce una problematica legata alla sincronizzazione o alla gestione dei tempi...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

Crescita di CHPT trainata dal Nord America: focus sui guadagni trimestrali

Secondo Digitimes, la crescita di CHPT nel 2026 sarà guidata principalmente dalla domanda proveniente dal Nord America. L'azienda punta a migliorare i risultati trimestrali, concentrandosi sull'espansione del mercato e sull'ottimizzazione delle opera...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

MediaTek punta sui 2nm di TSMC e sull'AI computing

MediaTek si prepara ad adottare i processi a 2nm e A14 di TSMC, con un focus sull'incremento della potenza di calcolo per l'intelligenza artificiale. Questa mossa strategica mira a posizionare MediaTek come leader nel settore dei chip ad alte prestaz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-09 DigiTimes

LG CNS adotta NPU FuriosaAI per servizi AI enterprise in Corea

LG CNS collabora con FuriosaAI per integrare le NPU (Neural Processing Unit) di quest'ultima nei propri servizi di intelligenza artificiale enterprise. Questa partnership mira a sfruttare l'hardware AI sviluppato in Corea del Sud per migliorare le pr...

#Hardware #LLM On-Premise #DevOps
2026-02-09 ArXiv cs.CL

Decodifica contrastiva multi-contesto per il Visual Question Answering

Un nuovo metodo di decodifica, RMCD, migliora i Large Vision Language Models (LVLM) integrando contesti multipli da knowledge base esterne. RMCD pesa i contesti in base alla loro rilevanza, aggregando informazioni utili ed attenuando gli effetti nega...

#Fine-Tuning #RAG
2026-02-09 ArXiv cs.CL

Nuovi slogan pubblicitari? L'AI riscrive citazioni famose

La creazione di slogan pubblicitari efficaci è cruciale, ma la ripetitività ne riduce l'impatto. Un nuovo studio esplora l'uso di modelli linguistici di grandi dimensioni (LLM) per rielaborare citazioni famose, bilanciando novità e familiarità. L'obi...

2026-02-09 ArXiv cs.LG

EVE: un framework per risposte complete e affidabili da LLM

Un nuovo framework, EVE, affronta i limiti degli LLM nel fornire risposte complete e fedeli basate su un singolo documento. EVE utilizza un approccio strutturato che migliora significativamente il richiamo, la precisione e l'F1-score, superando il co...

2026-02-09 ArXiv cs.AI

Jackpot: campionamento efficiente per RL e LLM

Ricercatori propongono Jackpot, un framework per il reinforcement learning (RL) con LLM. Jackpot utilizza un campionamento di reiezione con budget ottimale (OBRS) per ridurre la discrepanza tra il modello di rollout e la policy in evoluzione, miglior...

2026-02-09 LocalLLaMA

Un milione di file Epstein in formato testo per analisi locale

Rilasciato un dataset di un milione di file relativi al caso Epstein, convertiti in formato testo tramite OCR. I file, compressi in 12 archivi ZIP per un totale di meno di 2GB, sono pensati per l'analisi tramite LLM in locale. Previsto miglioramento ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-09 The Register AI

Hyderabad: proposta di carta d'identità per agenti AI

Il commissario di polizia della città indiana di Hyderabad ha proposto di rilasciare carte d'identità, o equivalenti digitali, per gli agenti di intelligenza artificiale. La proposta mira a regolamentare e tracciare le attività degli agenti AI nella ...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

WokeAI rilascia tre nuovi modelli LLM 'Tankie' open source

Il gruppo WokeAI ha annunciato il rilascio di tre nuovi modelli linguistici di grandi dimensioni (LLM) open source, denominati 'Tankie', progettati per l'analisi ideologica e la critica delle strutture di potere. I modelli sono disponibili su Hugging...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-09 LocalLLaMA

StepFun: in arrivo Step-3.5-Flash-Base e novità per il capodanno cinese

Il team di StepFun AI ha annunciato l'imminente rilascio di Step-3.5-Flash-Base e anticipa ulteriori sorprese in occasione del capodanno cinese. Sono in corso discussioni con NVIDIA sull'utilizzo di NVFP4 e ottimizzazioni per la gestione dei token.

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

Tower Semiconductor e Nvidia: moduli ottici 1.6T per data center AI

Tower Semiconductor e Nvidia collaborano per sviluppare moduli ottici da 1.6T destinati a migliorare le prestazioni delle reti nei data center AI. Questa tecnicia promette di accelerare significativamente il trasferimento dati, cruciale per le applic...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

Investimenti AI minacciano i flussi di cassa delle Big Tech

L'accelerazione degli investimenti nel settore dell'intelligenza artificiale sta mettendo sotto pressione i flussi di cassa delle principali aziende tecniciche. La necessità di sostenere la crescente domanda di risorse computazionali per l'addestrame...

#Hardware
2026-02-09 LocalLLaMA

Alternative a Open WebUI con UX migliorata: la sfida dell'usabilità

Un utente segnala difficoltà di configurazione e usabilità con Open WebUI, in particolare nella gestione dei tool. La discussione si concentra sulla ricerca di alternative che offrano un'esperienza utente più intuitiva e meno complessa per l'interazi...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

Wistron: crescita dell'IA non ancora in fase di bolla

Il presidente di Wistron, Simon Lin, ritiene che la crescita dell'intelligenza artificiale sia in una fase iniziale e che i timori di una bolla speculativa siano prematuri. L'azienda prevede un'ulteriore espansione nel settore, con un focus sull'inno...

2026-02-09 LocalLLaMA

Supporto a Qwen3.5 integrato in llama.cpp

L'integrazione del supporto per il modello linguistico Qwen3.5 in llama.cpp è stata completata. Questa aggiunta permette di eseguire e sperimentare con Qwen3.5 direttamente su hardware locale, aprendo nuove possibilità per sviluppatori e ricercatori ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

MiniMax M2.2 in Arrivo: Indizi nel Codice

Indiscrezioni sul modello linguistico MiniMax M2.2 emergono dall'analisi del codice del sito web. La scoperta, segnalata su Reddit, suggerisce un imminente rilascio del modello. Ulteriori dettagli sulle capacità e sulle specifiche tecniche restano al...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Taiwan: ordini CSP e spazio trainano la filiera nel 2026

La filiera tecnicica di Taiwan prevede un inizio 2026 positivo, grazie alla domanda da parte dei fornitori di servizi cloud (CSP) e alla crescita del settore aerospaziale. Questi fattori compensano le incertezze economiche globali, sostenendo la prod...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Budget indiano punta su AI e semiconduttori: le implicazioni

Il budget annuale dell'India prevede un forte impulso all'ecosistema dell'intelligenza artificiale e dei semiconduttori. L'iniziativa mira a posizionare l'India come hub tecnicico globale, con investimenti mirati in ricerca e sviluppo, infrastrutture...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Boom dell'AI spinge la crescita di Taiwan ai massimi da 15 anni

La crescita economica di Taiwan accelera grazie alla forte domanda nel settore dell'intelligenza artificiale, superando i timori di delocalizzazione. L'aumento della domanda di semiconduttori ad alte prestazioni, essenziali per i carichi di lavoro AI...

#Fine-Tuning
2026-02-08 Phoronix

Linux 6.19: supporto migliorato per GPU AMD datate e pipeline colore DRM

Linus Torvalds ha annunciato il rilascio del kernel Linux 6.19, la prima release importante del 2026. Questa versione include miglioramenti per le GPU AMD più datate e una nuova API per la pipeline colore DRM. L'aggiornamento promette di ottimizzare ...

#Hardware #LLM On-Premise
2026-02-08 LocalLLaMA

Visualizzazione interattiva di modelli LLM in formato GGUF

Un appassionato ha sviluppato uno strumento per visualizzare l'architettura interna dei modelli linguistici di grandi dimensioni (LLM) salvati in formato .gguf. L'obiettivo è rendere più trasparente la struttura di questi modelli, tradizionalmente co...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Cluster AMD Strix Halo: Inference LLM Distribuita con RDMA RoCE v2

Un cluster a due nodi basato su AMD Strix Halo, interconnesso tramite Intel E810 (RoCE v2), è stato realizzato per l'inference distribuita di LLM utilizzando Tensor Parallelism. I benchmark e la guida alla configurazione sono disponibili online, apre...

#Hardware #LLM On-Premise #DevOps
2026-02-08 TechCrunch AI

Crypto.com investe 70 milioni di dollari nel dominio AI.com

La piattaforma di scambio di criptovalute Crypto.com ha acquisito il dominio AI.com per 70 milioni di dollari. L'operazione stabilisce un nuovo record per l'acquisto di un dominio, evidenziando l'interesse del settore crypto verso l'intelligenza arti...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Benchmark di LLM: Qwen MoE supera LLaMA-70B in neuroscienze

Un nuovo benchmark nel campo delle neuroscienze e delle interfacce cervello-computer (BCI) rivela che il modello Qwen3 235B MoE supera le prestazioni di LLaMA-3.3 70B. I risultati evidenziano un limite di accuratezza condiviso tra diversi modelli, su...

#LLM On-Premise #DevOps
2026-02-08 TechCrunch AI

Progetto AI 'Magnificent Ambersons': Reazioni contrastanti

Un progetto di intelligenza artificiale denominato 'Magnificent Ambersons' suscita reazioni contrastanti. Nonostante alcune preoccupazioni iniziali, l'iniziativa sembra aver mitigato parte dello scetticismo, pur rimanendo oggetto di dibattito.

2026-02-08 Phoronix

Intel abbandona diversi progetti open source: cosa succede?

Intel ha recentemente archiviato o interrotto una ventina di progetti open source precedentemente mantenuti. La decisione segue l'archiviazione del progetto "SDSi" On Demand, sollevando interrogativi sulla strategia open source del gigante dei chip.

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Ottimizzazioni in corso per llama.cpp

Un utente ha segnalato su Reddit un'attività in corso su GitHub relativa a miglioramenti per llama.cpp, un framework per l'inference di modelli linguistici di grandi dimensioni. I dettagli specifici dei miglioramenti non sono forniti, ma l'attività s...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

StepFun 3.5 Flash vs MiniMax 2.1: confronto su Ryzen

Un utente confronta le performance di StepFun 3.5 Flash e MiniMax 2.1, due modelli linguistici di grandi dimensioni (LLM), su una piattaforma AMD Ryzen. L'analisi si concentra sulla velocità di elaborazione e sull'utilizzo della VRAM, evidenziando i ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

LLM non censurato genera risposte inattese

Un utente di un modello linguistico di grandi dimensioni (LLM) non censurato ha condiviso un'esperienza curiosa. Prima di fornire istruzioni specifiche, l'utente ha chiesto al modello cosa volesse fare, ottenendo una risposta inaspettatamente innocen...

#LLM On-Premise #DevOps
2026-02-08 Tom's Hardware

Nvidia nega l'uso di libri piratati per addestrare i suoi modelli AI

Nvidia contesta le accuse di aver utilizzato materiale protetto da copyright, nello specifico libri provenienti da Anna's Archive, per l'addestramento dei suoi modelli di intelligenza artificiale. L'azienda ha chiesto il rigetto della causa intentata...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Verity: motore di ricerca AI locale stile Perplexity per PC AI

Verity è un motore di ricerca e risposta AI che funziona interamente in locale su PC dotati di AI, sfruttando CPU, GPU e NPU. Ottimizzato per PC AI Intel con OpenVINO e Ollama, offre ricerca self-hosted tramite SearXNG e risposte basate su fatti.

#Hardware #LLM On-Premise #DevOps
2026-02-08 Tom's Hardware

Un Mac Retro con Stampante Termica e 'Cervello' da Mac Mini

Un appassionato ha modificato un vecchio Apple Mac integrando una stampante termica al posto del floppy disk drive. La macchina beneficia anche di un trapianto di 'cervello' grazie all'aggiunta di un Mac Mini.

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Tandem: workspace AI open-source e locale con Rust e SQLite

Uno sviluppatore ha creato Tandem, un ambiente di lavoro AI che gira interamente in locale, senza inviare dati al cloud. La soluzione utilizza Rust, Tauri e sqlite-vec, offrendo un'alternativa leggera alle applicazioni Python/Electron. Supporta model...

#LLM On-Premise #DevOps #RAG
2026-02-08 Phoronix

Intel QATlib 26.02: nuove API per DMA zero-copy

Intel ha rilasciato QATlib 26.02, l'ultima versione della sua libreria user-space per sfruttare la tecnicia QuickAssist (QAT) su hardware compatibile. Questa release introduce nuove API per DMA zero-copy, migliorando le prestazioni di compressione e ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Critiche al marketing di Anthropic: solo allarmismo sull'open source?

Un post su Reddit critica aspramente le strategie di marketing di Anthropic, accusandola di focalizzarsi eccessivamente sulla denigrazione dell'open source e sulla diffusione di timori infondati riguardo ai rischi dell'intelligenza artificiale. L'art...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

LLM locali: sviluppare e ricerca le applicazioni più comuni

Un utente di LLM locali condivide la propria esperienza nell'utilizzo di questi modelli per attività di sviluppo e ricerca, sollecitando la community a condividere ulteriori applicazioni e casi d'uso. La discussione si concentra sui vantaggi dell'ese...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Llama.cpp: "--fit" accelera Qwen3-Coder-Next su RTX 3090

Un utente ha riscontrato miglioramenti significativi nelle prestazioni di Qwen3-Coder-Next utilizzando l'opzione "--fit" in Llama.cpp su una configurazione dual RTX 3090. I risultati indicano un potenziale incremento di velocità rispetto all'opzione ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Musk: la velocità, non l'ambizione, guiderà la prossima fase dell'IA

Secondo Elon Musk, la velocità di esecuzione, più che l'ambizione pura, sarà il fattore determinante nella prossima fase di espansione dell'intelligenza artificiale. L'articolo, basato su fonti AFP, non fornisce dettagli specifici su modelli, hardwar...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Nvidia e Dassault Systèmes: AI per il mondo fisico

Nvidia e Dassault Systèmes intensificano la loro collaborazione per integrare l'intelligenza artificiale nel mondo della progettazione e simulazione fisica. L'obiettivo è migliorare i processi di sviluppo prodotto e accelerare l'innovazione in divers...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Tormente di neve in Giappone minacciano la fornitura di chip AI

Le intense tempeste di neve in Giappone mettono a rischio le catene di approvvigionamento dei chip per l'intelligenza artificiale. La situazione potrebbe impattare la produzione e la distribuzione di componenti essenziali per il settore.

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

AMD punta su fotonica e architetture modulari per l'AI

AMD investe in tecnicie di fotonica e architetture modulari, segnalando un cambiamento nello sviluppo dell'infrastruttura AI. Questa mossa strategica potrebbe portare a soluzioni più efficienti e scalabili per i carichi di lavoro di intelligenza arti...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Robotica e AI: la supply chain si riorganizza

L'integrazione dell'intelligenza artificiale nella robotica sta portando a una riorganizzazione della supply chain. I fornitori di robotica ampliano le loro competenze per includere capacità di AI, mentre le aziende tech cercano di posizionarsi in qu...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt di Sistema Completo per Claude Opus 4.6

Un utente ha condiviso su Reddit un prompt di sistema completo per Claude Opus 4.6, il modello di Anthropic. Il prompt è disponibile su GitHub e offre uno sguardo approfondito sulla configurazione interna del modello.

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DeepSeek V3.2: risultati AIME 2026 superiori al 90% con costi minimi

I risultati del benchmark AIME 2026 mostrano performance elevate, superiori al 90%, sia per modelli chiusi che open source. In particolare, DeepSeek V3.2 si distingue per un costo di esecuzione dell'intero test di soli 0,09 dollari, aprendo nuove pro...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt injection: vulnerabilità critica per LLM self-hosted

Un utente segnala una grave vulnerabilità di prompt injection in un sistema LLM self-hosted. Durante i test, un prompt malevolo ha esposto l'intero prompt di sistema, evidenziando la mancanza di difese adeguate contro questo tipo di attacco. Le tradi...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Chicony Power punta su AI e piattaforme low-carbon, oltre i PC

Chicony Power diversifica il suo business, puntando su soluzioni per l'intelligenza artificiale e piattaforme a basse emissioni di carbonio. L'azienda mira a espandere il proprio raggio d'azione oltre il tradizionale mercato dei PC, intercettando nuo...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt di sistema di Gemini Pro estratto da un utente

Un utente Reddit ha estratto il prompt di sistema utilizzato da Google per Gemini Pro, dopo la rimozione dell'opzione "PRO" per gli abbonati a pagamento, principalmente in Europa, a seguito di A/B testing. Il prompt è stato condiviso sulla piattaform...

#LLM On-Premise #DevOps
2026-02-07 TechCrunch AI

New York valuta moratoria di tre anni sui nuovi data center

Lo stato di New York sta considerando una moratoria di tre anni sulla costruzione di nuovi data center. New York è almeno il sesto stato a valutare una simile misura, sebbene le prospettive del disegno di legge rimangano incerte.

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Benchmark LLM: tempo totale di attesa vs. token al secondo

Un utente di LocalLLaMA ha sviluppato un metodo di benchmarking alternativo per valutare le prestazioni reali dei modelli linguistici di grandi dimensioni (LLM) in locale. Invece di concentrarsi sui token generati al secondo, il benchmark misura il t...

#Hardware #LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Intel Arc A380: XeSS 3 aumenta le prestazioni in Cyberpunk 2077

La GPU Intel Arc A380, potenziata dalla tecnicia XeSS 3 e con 6GB di VRAM, raggiunge i 140 FPS a 1080p con impostazioni grafiche basse in Cyberpunk 2077. Un significativo miglioramento prestazionale ottenuto tramite ottimizzazione software.

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Apple M5 Max e Ultra in arrivo? Indiscrezioni sul nuovo hardware

Indiscrezioni suggeriscono l'imminente rilascio dei chip M5 Max e, potenzialmente, M5 Ultra di Apple. I nuovi chip potrebbero essere rilasciati contestualmente all'aggiornamento del sistema operativo macOS 26.3. Resta da vedere se Apple opterà per un...

#Hardware
2026-02-07 LocalLLaMA

Monitoraggio LLM on-premise con Grafana, Prometheus e DCGM

Un utente ha implementato un sistema di monitoraggio completo per il proprio server LLM domestico, utilizzando Grafana, Prometheus e DCGM per tenere traccia di parametri come l'utilizzo della GPU, il consumo energetico e le velocità di elaborazione d...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DoomsdayOS: LLM locale su chiavetta USB per Thinkpad

Un utente ha dimostrato DoomsdayOS, un sistema operativo all-in-one avviabile da USB, su un Thinkpad T14s. Include LLM, Wikipedia e runtime, pensato per operare in scenari offline o di emergenza. Il codice sorgente è disponibile su GitHub.

#LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Intel Arrow Lake Refresh: verdetto il 23 marzo?

Indiscrezioni suggeriscono che Intel potrebbe annunciare la serie Arrow Lake Refresh il 23 marzo. L'assenza del Core Ultra 9 290K Plus dai listini di un rivenditore statunitense alimenta voci di cancellazione. La serie Core Ultra 200S è al centro del...

#Hardware
2026-02-07 Tom's Hardware

MSI RTX 5090 Lightning: prestazioni da record a un prezzo elevato

MSI lancia la RTX 5090 Lightning, una GPU in edizione limitata progettata per superare ogni record di performance. Questa scheda video di fascia altissima si posiziona come una soluzione estrema per appassionati e professionisti, ma il prezzo la rend...

#Hardware #LLM On-Premise #DevOps
2026-02-07 The Register AI

Vishal Sikka: non fidarsi mai di un LLM che opera isolato

L'esperto di AI Vishal Sikka mette in guardia sui limiti degli LLM operanti in solitaria. Secondo Sikka, queste architetture sono vincolate dalle risorse computazionali e tendono a generare allucinazioni quando spinte al limite. La soluzione proposta...

#LLM On-Premise #DevOps
2026-02-07 Phoronix

NetBSD 11.0-RC1 disponibile per test con emulazione Linux migliorata

La prima release candidate di NetBSD 11.0 è ora disponibile per i test. Questa versione include miglioramenti significativi all'emulazione Linux, rendendola un'opzione interessante per chi cerca un sistema operativo versatile e affidabile.

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DeepSeek-V2-Lite: performance su hardware modesto con OpenVINO

Un utente ha confrontato DeepSeek-V2-Lite e GPT-OSS-20B su un laptop del 2018 con grafica integrata, usando OpenVINO. DeepSeek-V2-Lite ha mostrato velocità quasi doppie e risposte più coerenti rispetto a GPT-OSS-20B, sebbene con alcune imprecisioni l...

#Hardware
2026-02-07 LocalLLaMA

Qwen e ByteDance testano nuovi modelli seed sull'Arena

Modelli potenziali di Qwen e ByteDance sono in fase di test sull'Arena. I modelli "Karp-001" e "Karp-002" si presentano come varianti di Qwen-3.5. Parallelamente, i modelli "Pisces-llm-0206a" e "Pisces-llm-0206b" sono identificati come modelli di Byt...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Minimax m2.1: un modello LLM promettente per la ricerca locale

Un utente condivide la propria esperienza positiva con il modello linguistico Minimax m2.1, in particolare la versione quantizzata a 4-bit DWQ MLX. Evidenzia le sue capacità di ragionamento conciso, velocità e competenza nella generazione di codice, ...

#LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Paesi Bassi: server VPN sequestrato senza mandato?

Secondo quanto riportato, le autorità olandesi avrebbero sequestrato un server VPN senza un mandato. L'azienda coinvolta afferma che le forze dell'ordine restituiranno il dispositivo dopo averlo analizzato completamente. L'episodio solleva interrogat...

#LLM On-Premise #DevOps
2026-02-07 Wired AI

Olimpiadi Invernali 2026: nuove tecnicie immersive in arrivo

Le Olimpiadi Invernali di Milano-Cortina 2026 promettono un'esperienza visiva rivoluzionaria. Droni con visualizzazione in prima persona, replay a 360 gradi in tempo reale e un sistema Olympics GPT trasformeranno il modo in cui gli spettatori vivrann...

2026-02-07 Tom's Hardware

SanDisk Optimus SSD PCIe 5.0: nuovi modelli da 2TB e 4TB

SanDisk ha rilanciato la sua linea di SSD Optimus con modelli PCIe 5.0 da 2TB e 4TB. I nuovi Optimus GX Pro 8100 sono disponibili a partire da 999 dollari per il modello da 2TB e 1799 dollari per quello da 4TB, con un incremento di prezzo del 5% risp...

#Hardware #LLM On-Premise
2026-02-07 LocalLLaMA

Google Gemini: aumentano i costi, cala la qualità?

Un utente segnala un aumento dei costi e un calo della precisione con i modelli Gemini di Google per attività di estrazione dati e OCR. La rimozione delle opzioni più economiche e la mancanza di miglioramenti nelle versioni più recenti sollevano preo...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-07 Phoronix

Miglioramento driver video Linux: meccanismo di ripristino KMS

Un ingegnere di Microsoft sta sviluppando un meccanismo di ripristino KMS per i driver video Linux. L'obiettivo è migliorare la stabilità del sistema grafico, permettendo ai driver di recuperare automaticamente in caso di errori. Il lavoro è guidato ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Ritardo per i chip Intel Panther Lake: arrivo previsto nel Q2 2026

Secondo indiscrezioni, i chip Intel Panther Lake per dispositivi portatili subiranno un ritardo e non saranno disponibili prima del secondo trimestre del 2026. La presunta serie 'Core G3' potrebbe essere lanciata insieme alle nuove iGPU Arc B360 e Ar...

#Hardware
2026-02-07 DigiTimes

Agenti AI non sostituiranno il software enterprise, secondo gli esperti

Affermazioni audaci sulla sostituzione del software enterprise con agenti AI vengono ridimensionate dagli esperti. L'articolo analizza le sfide e i limiti attuali degli agenti AI nel contesto aziendale, sottolineando che la loro adozione su vasta sca...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Dassault Systèmes punta sull'AI per l'industria del futuro

Dassault Systèmes presenta la sua visione di 'economia generativa', basata sull'intelligenza artificiale, per trasformare il settore industriale. L'azienda punta a integrare l'AI in tutti i suoi processi, dalla progettazione alla produzione, per migl...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Kimi-Linear-48B-A3B e Step3.5-Flash disponibili per llama.cpp

Sono state rilasciate le versioni di Kimi-Linear-48B-A3B e Step3.5-Flash compatibili con llama.cpp. Al momento non sono ancora disponibili i file GGUF ufficiali, ma la community sta già lavorando alla loro creazione. La disponibilità di questi modell...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Kernel open-source per attention: 1 milione di token in 1GB di VRAM

Geodesic Attention Engine (GAE) è un kernel open-source che promette di ridurre drasticamente il consumo di memoria per modelli di linguaggio di grandi dimensioni. Con GAE, è possibile gestire 1 milione di token con solo 1GB di VRAM, ottenendo un ris...

#Hardware #LLM On-Premise #DevOps
2026-02-07 TechCrunch AI

Benchmark investe 225 milioni di dollari in Cerebras

La società di venture capital Benchmark Capital ha annunciato un investimento di 225 milioni di dollari in Cerebras Systems, produttore di processori dedicati all'intelligenza artificiale. Benchmark è investitore in Cerebras dal 2016, supportando lo ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-07 ArXiv cs.AI

DeepRead: Ragionamento Strutturale per Ricerca Agentica Avanzata

DeepRead è un nuovo agente che sfrutta la struttura dei documenti per migliorare la ricerca e il question answering. Utilizza un modello OCR basato su LLM per convertire i PDF in Markdown strutturato, preservando intestazioni e paragrafi. L'agente è ...

#LLM On-Premise #DevOps
2026-02-07 ArXiv cs.AI

Intelligenza Artificiale 'Strana': Oltre i Modelli Lineari

Un nuovo studio contesta l'idea di un progresso lineare nell'IA, introducendo i concetti di 'intelligenza familiare' e 'intelligenza strana'. I sistemi di IA potrebbero combinare capacità sovrumane con errori sorprendenti, sfidando le aspettative e r...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Nemo 30B: Modello LLM con finestra di contesto da 1M su singola RTX 3090

Un utente ha testato il modello linguistico Nemo 30B, raggiungendo una finestra di contesto di oltre 1 milione di token su una singola GPU RTX 3090. L'utente ha riscontrato una velocità di 35 token al secondo, sufficiente per riassumere libri o docum...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

OpenClaw: scoperta vulnerabilità nella catena di consegne di malware

Un ricercatore di 1Password ha scoperto che una skill OpenClaw molto scaricata era in realtà una catena di consegne di malware. La skill, che prometteva l'integrazione con Twitter, guidava gli utenti a eseguire comandi offuscati che installavano malw...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Maia 200 di Microsoft: focus su costi, non competizione con Nvidia

Microsoft ha presentato Maia 200, un chip progettato per ottimizzare i costi di inference AI. L'obiettivo non è competere direttamente con Nvidia, ma offrire una soluzione più efficiente in termini di spesa per specifici carichi di lavoro. Il chip è ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Musk frena le ambizioni EV di Apple: il talento non basta

Elon Musk esprime scetticismo sulle capacità di Apple di competere nel mercato dei veicoli elettrici (EV), suggerendo che il solo talento ingegneristico non sia sufficiente per garantire il successo in questo settore altamente competitivo. L'articolo...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Google delinea 5 trend chiave per gli agenti AI nel 2026

Secondo DIGITIMES, Google ha identificato cinque tendenze principali che guideranno la crescita degli agenti di intelligenza artificiale entro il 2026. Queste tendenze influenzeranno lo sviluppo, l'adozione e l'integrazione degli agenti AI in vari se...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Texas Instruments punta sull'AIoT con l'acquisizione di Silicio Labs

L'acquisizione di una divisione di Silicio Labs da parte di Texas Instruments mira a rafforzare la posizione di quest'ultima nel mercato dell'AIoT (Artificial Intelligence of Things). Questa mossa strategica permetterà a TI di ampliare il proprio por...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Impennata della domanda AI: +10% per i server general-purpose nel 2026

La crescente richiesta di applicazioni di intelligenza artificiale sta avendo un impatto significativo sul mercato dei server. Si prevede un aumento del 10% nelle consegne di server general-purpose entro il 2026, trainato dalla necessità di infrastru...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 Ars Technica AI

Avvocato perde caso per errori AI: citava Bradbury a caso

Un giudice federale di New York ha chiuso un caso a causa dell'uso improprio e ripetuto dell'intelligenza artificiale da parte di un avvocato. I documenti presentati contenevano citazioni inventate e uno stile di scrittura eccessivamente elaborato, c...

#LLM On-Premise #DevOps
2026-02-06 PyTorch Blog

Precisione nelle moltiplicazioni di matrici: un'analisi approfondita

Le GPU e gli acceleratori utilizzano motori specializzati per la moltiplicazione di matrici (GEMM). Questo articolo analizza la precisione degli accumulatori in questi motori, rivelando che, per ragioni di efficienza hardware, la precisione effettiva...

#Hardware
2026-02-06 TechCrunch AI

Claude analizza il traffico web su WordPress: integrazione semplificata

Gli utenti di WordPress possono ora utilizzare Claude per analizzare il traffico web e ottenere informazioni dettagliate sulle metriche interne del sito. Questa nuova integrazione semplifica l'accesso ai dati e l'ottimizzazione delle prestazioni.

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Startup AI nel video suscita polemiche vantandosi di sostituire creativi

Higgsfield.ai, una startup che offre strumenti di creazione video basati sull'intelligenza artificiale, ha scatenato indignazione affermando di aver contribuito alla disoccupazione di artisti. La mossa di marketing ha innescato un acceso dibattito su...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Waymo usa Genie 3 per simulazioni di guida autonoma realistiche

Waymo, la società di guida autonoma di Google, sta utilizzando il modello Genie 3 di DeepMind per creare ambienti di simulazione iper-realistici. Questo permette di addestrare l'intelligenza artificiale dei veicoli in situazioni rare o mai incontrate...

2026-02-06 TechCrunch AI

Gli agenti AI potrebbero davvero sostituire gli avvocati?

Il recente rilascio di Opus 4.6 ha generato nuove discussioni sulle capacità degli agenti AI, sollevando interrogativi sul loro potenziale impatto in settori professionali come quello legale. Le implicazioni di tali progressi meritano un'attenta valu...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

GLM-5 in fase di test su OpenRouter

Il modello linguistico GLM-5 è attualmente in fase di test sulla piattaforma OpenRouter. Questa notizia, proveniente da una discussione su Reddit, indica un potenziale ampliamento dell'offerta di modelli disponibili per gli utenti di OpenRouter, apre...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

ML-LIB: Libreria di Machine Learning Proposta per il Kernel Linux

Un ingegnere di IBM ha proposto una libreria di machine learning (ML-LIB) per il kernel Linux. L'obiettivo è integrare modelli di ML direttamente nel kernel per ottimizzare le performance del sistema e abilitare nuove funzionalità. La proposta è attu...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Modello sperimentale con attenzione subquadratica: fino a 10M di contesto

Rilasciato un modello sperimentale da 30B con meccanismo di attenzione subquadratica, scalando a O(L^(3/2)). Permette di gestire contesti fino a 10 milioni di token su una singola GPU, mantenendo velocità di decodifica pratiche. Include server compat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

Elon Musk riscrive le regole del potere nel mondo tech

Elon Musk ha fuso SpaceX e xAI, creando un nuovo modello di struttura di potere nella Silicio Valley. Con un patrimonio netto che rivaleggia con la capitalizzazione di mercato di General Electric, Musk punta sulla velocità di innovazione. La domanda ...

#LLM On-Premise #DevOps
2026-02-06 OpenAI Blog

Localizzazione dell'AI: l'approccio di OpenAI per un'AI globale

OpenAI illustra il suo approccio alla localizzazione dell'intelligenza artificiale, spiegando come i modelli di frontiera condivisi globalmente possono essere adattati a lingue, leggi e culture locali senza compromettere la sicurezza. L'obiettivo è r...

#LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

SpaceX e xAI: Musk crea un nuovo colosso tecnicico?

Elon Musk ha unito SpaceX e xAI, potenzialmente delineando una nuova struttura di potere nella Silicio Valley. Con un patrimonio netto che rivaleggia con la capitalizzazione di mercato di GE, si discute sulla portata di questo nuovo conglomerato pers...

2026-02-06 404 Media

La perenne sfida della cybersecurity: un'analisi

Un recente articolo esplora le sfide in continua evoluzione nel campo della cybersecurity, con un focus particolare sulla mobile forensics. L'articolo evidenzia come le autorità incontrino difficoltà crescenti nell'accedere ai dispositivi protetti, c...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Investimenti record: Big Tech spenderanno 635 miliardi in infrastrutture AI

Amazon, Google, Meta e Microsoft prevedono di investire collettivamente circa 635 miliardi di dollari in infrastrutture, con una quota significativa destinata a datacenter e infrastrutture per l'intelligenza artificiale. Questa cifra supera il PIL di...

#LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

Kindle Scribe Colorsoft: tablet e-ink a colori con AI, ma costoso

Il nuovo Kindle Scribe Colorsoft di Amazon è un tablet e-ink a colori progettato per la lettura, l'annotazione di documenti e la presa di appunti. Nonostante il prezzo elevato, potrebbe essere un investimento valido per chi cerca un dispositivo dedic...

#LLM On-Premise #DevOps
2026-02-06 MIT Technology Review

Moltbook: teatro dell'AI o sguardo al futuro?

Moltbook, una piattaforma sociale per agenti AI, ha rapidamente guadagnato popolarità, generando milioni di interazioni tra bot. L'esperimento solleva interrogativi sull'autonomia reale degli agenti e sui rischi legati alla gestione di dati sensibili...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Hugging Face: benchmark di modelli LLM guidati dalla comunità

Hugging Face introduce repository di benchmark per valutazioni di modelli LLM basate sulla comunità. L'iniziativa mira a risolvere le incongruenze nei risultati dei benchmark, consentendo agli utenti di contribuire con valutazioni e collegare diretta...

#LLM On-Premise #DevOps
2026-02-06 404 Media

Sorveglianza ICE: indagine sull'uso di tecnicie e dati biometrici

L'Inspector General del Dipartimento per la Sicurezza Nazionale USA (DHS) ha avviato un'indagine sull'Immigration and Customs Enforcement (ICE) riguardo potenziali abusi della privacy legati a programmi di sorveglianza e dati biometrici. L'inchiesta ...

2026-02-06 AI News

AI per il penetration testing: i 7 protagonisti del 2026

Il penetration testing basato su AI sta evolvendo il ruolo della sicurezza offensiva, trasformandola da attività pianificata a controllo continuo. Le piattaforme di nuova generazione valutano costantemente le superfici di attacco, rilevando nuove vul...

#DevOps
2026-02-06 The Register AI

Riconoscimento facciale: supermercato si scusa per errore

Un supermercato britannico si è scusato dopo che il suo sistema di riconoscimento facciale ha erroneamente identificato un cliente innocente come un criminale. Il sistema ha funzionato come previsto, ma il personale ha espulso la persona sbagliata. L...

2026-02-06 Tom's Hardware

Affare al Walmart: SSD da 1300$ a 210$

Un fortunato acquirente ha trovato un'incredibile offerta al Walmart, acquistando SSD per un valore di 1300 dollari a soli 210 dollari. L'acquisto includeva unità WD, Samsung e PNY, offrendo un notevole risparmio sull'archiviazione ad alte prestazion...

#Hardware #LLM On-Premise
2026-02-06 Phoronix

Panther Lake: Nuovi benchmark Linux spingono al limite la CPU Intel

Nuovi benchmark Linux esaminano le prestazioni della CPU Intel Core Ultra X7 358H di Panther Lake con un budget energetico più elevato. I test rivelano notevoli miglioramenti generazionali, in particolare nell'efficienza energetica, e confermano le o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 Phoronix

AMD prepara il terreno per le GPU RDNA 4 con il target GFX1170

AMD continua lo sviluppo del suo stack di compilatori LLVM per le future GPU. È stato introdotto un nuovo target, GFX1170, identificato anche come RDNA 4m. Questo aggiornamento si aggiunge al lavoro già in corso sui target GFX1250 e GFX13, ampliando ...

#Hardware
2026-02-06 LocalLLaMA

Inference AI locale: anche senza GPU è possibile

Un utente dimostra come eseguire modelli LLM e Stable Diffusion su un vecchio PC desktop con sola CPU, aprendo la strada a sperimentazioni AI a basso costo e con pieno controllo dei dati. L'articolo esplora le potenzialità dell'inference AI su hardwa...

#Hardware #LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

llama.cpp integra il supporto Kimi-Linear: prestazioni migliorate

La libreria llama.cpp ha integrato il supporto per Kimi-Linear, una tecnica che promette di migliorare le prestazioni dei modelli linguistici. L'integrazione è stata resa possibile grazie a una pull request su GitHub, aprendo nuove possibilità per l'...

#Hardware #LLM On-Premise #DevOps
2026-02-06 The Register AI

Ferrovieri rumeni accusati di corruzione chiedono aiuto legale a ChatGPT

Dipendenti delle ferrovie rumene, coinvolti in un'inchiesta per corruzione e rivendita illecita di biglietti, avrebbero utilizzato ChatGPT per definire la loro strategia legale. L'accusa è di aver causato danni finanziari bloccando posti a sedere.

#LLM On-Premise #DevOps
2026-02-06 Tom's Hardware

Intelligenza Artificiale: un terzo dei consumatori USA scettici

Un recente rapporto evidenzia come un terzo dei consumatori statunitensi si mostri scettico riguardo all'integrazione dell'intelligenza artificiale nei propri dispositivi. Le principali preoccupazioni riguardano la privacy, i costi potenziali e la pe...

#LLM On-Premise #DevOps
2026-02-06 AI News

Scalabilità degli agenti AI: separare logica e ricerca

Un nuovo framework, ENCOMPASS, separa la logica di flusso di lavoro degli agenti AI dalle strategie di inference. Questo approccio, sviluppato da Asari AI, MIT CSAIL e Caltech, mira a ridurre il debito tecnico e migliorare le prestazioni, consentendo...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

Linux: gestione dinamica CPU per cloud e trading ad alta frequenza

Proposta per Linux una serie di patch per la gestione dinamica e l'isolamento avanzato (DHEI) delle risorse CPU. L'obiettivo è consentire la ripartizione dinamica delle risorse di calcolo senza interruzioni, a vantaggio di orchestratori cloud-native ...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Darren Aronofsky e l'AI: un docudrama storico che divide la critica

Il regista Darren Aronofsky ha collaborato con Time per "On This Day... 1776", una serie di brevi video che ricostruiscono eventi della Rivoluzione Americana tramite AI. La critica non ha accolto positivamente il progetto, definendolo "osceno" e "ter...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

GTK: focus su salvataggio sessioni e accessibilità migliorata

Gli sviluppatori del toolkit GTK si sono incontrati a Bruxelles durante la settimana del FOSDEM per il loro annuale hackfest. Tra i principali obiettivi di quest'anno figurano il miglioramento del supporto per il salvataggio delle sessioni e l'access...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Regno Unito: AI per gestire sussidi, mentre aumenta la disoccupazione da AI

Il sistema di welfare britannico sta sperimentando l'intelligenza artificiale per la gestione dei richiedenti l'Universal Credit. Questo avviene in un contesto di crescente automazione e timori per la perdita di posti di lavoro causata dall'AI, che p...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

Qualcomm: Firmware QUPv3 per Snapdragon X1 Elite su Linux

Qualcomm sta facilitando l'utilizzo di Snapdragon X1 Elite su Linux. In precedenza, i file firmware necessari dovevano essere estratti dalla partizione Windows 11 on ARM. Ora, i firmware QUPv3 sono stati integrati nel repository linux-firmware.git, s...

2026-02-06 Tom's Hardware

Adafruit contesta il divieto di stampa 3D di armi nello stato di NY

Adafruit si oppone al divieto dello stato di New York sulla stampa 3D di armi, suggerendo emendamenti per bilanciare sicurezza pubblica e libertà di istruzione, hardware open source e piccoli produttori. L'azienda propone modifiche mirate per evitare...

#Hardware
2026-02-06 The Register AI

West Sussex: ERP Oracle finanziato con vendita di asset

Il consiglio della contea inglese di West Sussex sta triplicando la vendita di proprietà per finanziare il proprio progetto ERP basato su Oracle. L'iniziativa, definita "trasformativa", ha visto il budget iniziale superato, portando a questa decision...

#LLM On-Premise #DevOps
2026-02-06 Tech.eu

Daytona raccoglie 24 milioni per infrastruttura agent-native

Daytona, startup fondata in Croazia, ha ottenuto un finanziamento di Serie A da 24 milioni di dollari per sviluppare un'infrastruttura di calcolo progettata per carichi di lavoro basati su agenti software. L'azienda punta a fornire ambienti di esecuz...

#Hardware
2026-02-06 LocalLLaMA

LLM a 10 token/s su un i3 di 8a generazione: si può fare!

Un utente dimostra come far girare un modello linguistico di grandi dimensioni (LLM) da 16 miliardi di parametri su un laptop HP ProBook del 2018 con processore Intel i3 di ottava generazione e 16GB di RAM. Ottimizzando l'uso della iGPU e sfruttando ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Apple integra agenti AI in Xcode per incrementare la produttività

Apple ha annunciato l'integrazione di agenti di intelligenza artificiale direttamente in Xcode, il suo ambiente di sviluppo integrato (IDE). L'obiettivo è quello di migliorare la produttività degli sviluppatori, automatizzando alcune fasi del process...

2026-02-06 DigiTimes

TSMC punta sui 3nm in Giappone: accordo tecnicico più ampio?

L'investimento di TSMC nella tecnicia a 3nm in Giappone indica un rafforzamento della collaborazione tecnicica tra Taiwan e Giappone. Questa mossa strategica potrebbe avere implicazioni significative per la catena di approvvigionamento globale dei se...

2026-02-06 DigiTimes

HTC accelera la vendita di visori AI espandendo canali e ecosistema

HTC intensifica la commercializzazione dei suoi visori per realtà aumentata con funzionalità AI, ampliando la rete di distribuzione e potenziando l'ecosistema software. L'azienda punta a una maggiore penetrazione nel mercato enterprise e consumer, sf...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Pegatron e Sysgration collaborano su server AI made in USA

Pegatron stringe una partnership con Sysgration per espandere la produzione di Battery Backup Units (BBU) destinate ai server AI prodotti negli Stati Uniti. Questa collaborazione mira a rafforzare la catena di approvvigionamento interna per component...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

MetaOptics integra metalenti resistenti al calore nelle CPU

MetaOptics, con sede a Singapore e stretti legami con Taiwan, sta sviluppando metalenti resistenti al calore per l'integrazione nelle CPU. Questa tecnicia potrebbe migliorare significativamente la gestione termica dei processori.

2026-02-06 The Next Web

TechEx Global: focus sull'AI enterprise a Londra

TechEx Global 2026 ha riunito a Londra migliaia di professionisti del settore per discutere l'applicazione pratica delle nuove tecnicie, con un'enfasi particolare sull'intelligenza artificiale. L'evento ha combinato diverse esposizioni, tra cui AI & ...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Corea del Sud punta alla leadership nei chip quantistici entro il 2035

La Corea del Sud ha annunciato un piano ambizioso per diventare leader mondiale nella produzione di chip quantistici entro il 2035. L'iniziativa mira a posizionare il paese all'avanguardia in questo settore tecnicico emergente, cruciale per il futuro...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Anthropic spinge il settore enterprise: implicazioni per il software

Il recente lancio di Anthropic aggiunge pressione al settore del software enterprise. Le aziende valutano sempre più soluzioni di intelligenza artificiale, con un impatto significativo sulle strategie di sviluppo e implementazione del software.

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Inference LLM: Ottimizzazione e prestazioni DeepSpeed

Un utente condivide un'immagine relativa all'ottimizzazione dell'inference di modelli linguistici di grandi dimensioni (LLM) tramite DeepSpeed. L'immagine suggerisce un'analisi delle prestazioni e delle configurazioni per migliorare la velocità e l'e...

#Hardware
2026-02-06 ArXiv cs.CL

BioACE: Framework automatico per valutare risposte biomediche

BioACE è un nuovo framework automatizzato per la valutazione della qualità delle risposte generate da modelli linguistici di grandi dimensioni (LLM) in ambito biomedico. Il sistema verifica la correttezza delle risposte e delle citazioni, valutando c...

#RAG
2026-02-06 ArXiv cs.LG

Analisi causale per rafforzare la sicurezza degli LLM

Una nuova ricerca propone un framework, Causal Analyst, per identificare le cause dirette delle vulnerabilità (jailbreak) nei modelli linguistici di grandi dimensioni (LLM). Il sistema utilizza l'analisi causale per migliorare sia gli attacchi che le...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 ArXiv cs.LG

Modelli Diffusivi per l'Analisi Normativa in Neuroimaging

Un nuovo studio esplora l'uso di modelli diffusivi per stimare distribuzioni di riferimento in neuroimaging, consentendo la derivazione di punteggi di deviazione clinicamente interpretabili. I modelli, basati su diverse architetture, sono stati valut...

2026-02-06 LocalLLaMA

Qwen3-235B: un utente ne esalta le prestazioni in locale

Un utente ha condiviso la sua esperienza positiva con il modello linguistico Qwen3-235B, eseguito su un sistema desktop. L'utente ha sottolineato l'accuratezza del modello e la sua utilità, al punto da preferirlo a un abbonamento commerciale a ChatGP...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Squilibri interni in OpenAI: ricercatori in uscita

OpenAI sta affrontando una potenziale perdita di risorse interne a causa della partenza di alcuni ricercatori. La notizia solleva interrogativi sulla stabilità e sulla direzione futura dell'azienda, leader nel settore dell'intelligenza artificiale.

2026-02-06 TechWire Asia

Deloitte: le aziende pronte per l'AI agentica e fisica

Secondo un report del Deloitte AI Institute, le aziende stanno scalando l'adozione di sistemi di AI agentica e fisica, ottenendo incrementi di produttività. Permangono però lacune nella governance e difficoltà nel trasformare i progetti pilota in sis...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Atlassian punta sull'AI senza far esplodere i costi

Atlassian rassicura gli investitori: l'integrazione dell'intelligenza artificiale nei suoi servizi non comprometterà i margini di profitto né causerà un aumento incontrollato dei costi. Il CEO si sente sottovalutato a causa di un calo di valore che d...

2026-02-06 LocalLLaMA

Qwen3-Coder: prestazioni migliorate su RTX 5090 con llama.cpp

Un utente ha segnalato un significativo aumento di throughput, fino a 26 token/secondo, utilizzando il modello Qwen3-Coder-Next-Q4_K_S con llama.cpp su una RTX 5090. L'ottimizzazione è stata ottenuta scaricando i tensori MoE expert sulla CPU e quanti...

#Hardware #LLM On-Premise
2026-02-06 DigiTimes

PSMC riduce le perdite grazie a DRAM e domanda AI

Il produttore di memorie PSMC registra una diminuzione delle perdite, trainata dall'aumento dei prezzi delle memorie DRAM e dalla crescente domanda di soluzioni per l'intelligenza artificiale. Questo andamento positivo riflette un miglioramento del m...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

OpenAI: cresce la pressione dei rivali, la redditività resta incerta

OpenAI si trova ad affrontare una crescente competizione nel mercato dell'intelligenza artificiale, mentre la redditività continua a essere un obiettivo difficile da raggiungere. L'articolo analizza le sfide che l'azienda deve affrontare.

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Foxconn: boom del 35% grazie ai server AI a gennaio

Il produttore Foxconn registra un aumento del fatturato del 35% a gennaio, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato riflette la crescente importanza dell'hardware specializzato per i carichi di lavoro ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Wistron: crescita record a gennaio grazie ai server AI

Il produttore taiwanese Wistron ha registrato un gennaio eccezionalmente positivo, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato evidenzia il crescente interesse del mercato per soluzioni hardware specializ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-06 LocalLLaMA

Parallelismo tensoriale in Llama.cpp: un aggiornamento promettente

Una pull request introduce il parallelismo tensoriale in Llama.cpp, aprendo la strada a inferenze più rapide e efficienti su modelli linguistici di grandi dimensioni. La comunità accoglie con favore questo sviluppo, che potrebbe migliorare significat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

La Corea del Sud punta sull'AI: Nvidia fornisce oltre 260.000 GPU

La Corea del Sud sta investendo massicciamente nell'intelligenza artificiale, supportata da un'infrastruttura hardware potenziata da oltre 260.000 GPU Nvidia. Questa mossa strategica mira a posizionare il paese come leader nel settore dell'AI, con un...

#Hardware
2026-02-06 DigiTimes

Google: l'AI rivitalizza la ricerca, non la soppianta

Secondo Digitimes, i recenti progressi di Google nell'integrazione dell'intelligenza artificiale nel motore di ricerca dimostrano come l'AI stia potenziando, e non sostituendo, le funzionalità di ricerca esistenti. L'azienda sta ottenendo significati...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Gemma 4: Google continua lo sviluppo del modello linguistico?

La community di LocalLLaMA si interroga sul futuro di Gemma 4, chiedendosi se Google stia ancora investendo nello sviluppo del modello linguistico. Nonostante i progressi nel settore, il destino di Gemma 4 rimane incerto.

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

SoproTTS v1.5: clonazione vocale zero-shot con soli 100 dollari

SoproTTS v1.5 è un modello TTS (text-to-speech) da 135 milioni di parametri che offre clonazione vocale zero-shot. Addestrato con circa 100 dollari su una singola GPU, il modello raggiunge una velocità di esecuzione di circa 20 volte il tempo reale s...

#Hardware #LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5 abbatte i costi della sintesi proteica acellulare

Un laboratorio autonomo, combinando GPT-5 di OpenAI con l'automazione cloud di Ginkgo Bioworks, ha ridotto i costi della sintesi proteica acellulare del 40% tramite sperimentazione a ciclo chiuso. Questo approccio automatizzato promette di accelerare...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Nuovi modelli OCR: LightOnOCR-2 e GLM-OCR migliorano l'accuratezza

Sono stati rilasciati LightOnOCR-2 e GLM-OCR, due nuovi modelli per il riconoscimento ottico dei caratteri (OCR). Un utente ha segnalato prestazioni superiori rispetto alle soluzioni disponibili a fine 2025, con GLM-OCR che offre velocità e output st...

2026-02-05 Phoronix

GPU Intel Battlemage: D3cold riattivato con Linux 7.0 (parzialmente)

Il driver grafico Xe di Intel per Linux, a partire dal kernel 7.0, riattiverà il supporto D3cold per le GPU Battlemage. Questa funzionalità era stata disabilitata a causa di problemi di instabilità nelle transizioni di stato di alimentazione. La modi...

#Hardware #LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: un agente nativo per attività tecniche complesse

Presentato GPT-5.3-Codex, un agente basato su Codex progettato per affrontare attività tecniche complesse nel mondo reale. Combina elevate prestazioni di programmazione con capacità di ragionamento generale per supportare progetti a lungo termine.

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: nuovo modello per la generazione di codice

Presentato GPT-5.3-Codex, un modello avanzato per la generazione di codice che combina le prestazioni di GPT-5.2-Codex con capacità di ragionamento e conoscenza professionale superiori. Il modello si posiziona come uno dei più avanzati nel suo genere...

#LLM On-Premise #DevOps
2026-02-05 PyTorch Blog

PyTorch per sistemi di raccomandazione: inference ad alta efficienza

Meta ha sviluppato un sistema di inference per raccomandazioni basato su PyTorch, cruciale per tradurre la ricerca avanzata in servizi di produzione. L'articolo descrive il flusso di lavoro, dalla definizione del modello addestrato alle trasformazion...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

DeepBrainz-R1: modelli compatti per workflow agentici

DeepBrainz ha rilasciato DeepBrainz-R1, una famiglia di modelli linguistici di dimensioni ridotte (4B, 2B, 0.6B) focalizzati sul ragionamento per workflow agentici. Ottimizzati per il ragionamento multi-step e la stabilità nel tool-calling, questi mo...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

gWorld: modello 8B batte Llama 4 da 402B generando codice web

Trillion Labs e KAIST AI hanno presentato gWorld, un modello di mondo visuale open-weight per interfacce grafiche mobile. gWorld, disponibile nelle versioni 8B e 32B, genera codice web eseguibile anziché pixel, superando in accuratezza modelli più gr...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 LocalLLaMA

Benchmark su Strix Halo con 13 modelli LLM e 15 build di llama.cpp

Un utente di Reddit ha eseguito una serie di benchmark sulla iGPU di Strix Halo, testando diverse configurazioni software con 13 modelli LLM e 15 build differenti di llama.cpp. L'obiettivo era valutare l'impatto di ROCm, Vulkan e varie opzioni di com...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Build non ufficiali di ik_llama.cpp disponibili per vari sistemi

Sono disponibili build precompilate non ufficiali di ik_llama.cpp per macOS, Ubuntu e Windows. Queste build semplificano l'adozione del progetto, evitando agli utenti la compilazione manuale. Il creatore incoraggia comunque l'uso della compilazione d...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

Regno Unito: framework per deepfake sotto esame dagli esperti

Il governo britannico, in collaborazione con Microsoft, annuncia un framework per valutare le tecnicie di rilevamento dei deepfake, in risposta alla crescita esponenziale di contenuti generati dall'AI. Tuttavia, esperti del settore esprimono dubbi su...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

Copilot di Microsoft ora accede a più file OneDrive

Microsoft ha reso gli agenti OneDrive generalmente disponibili. Gli utenti possono interrogare più documenti contemporaneamente tramite Copilot, anziché uno alla volta. Questa nuova funzionalità amplia le capacità di Copilot nell'analisi di dati spar...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

OpenAI Frontier: piattaforma enterprise per agenti AI

OpenAI presenta Frontier, una piattaforma enterprise progettata per la creazione, il deployment e la gestione di agenti di intelligenza artificiale. Frontier offre funzionalità di contesto condiviso, onboarding, gestione dei permessi e governance cen...

#DevOps
2026-02-05 Phoronix

Ubuntu supporterà SpacemiT K3, uno dei primi SoC RISC-V RVA23

Canonical e SpacemiT hanno annunciato il supporto ufficiale di Ubuntu Linux per il nuovo SoC K3 RISC-V di SpacemiT. Il K3 si distingue per essere uno dei primi design RISC-V RVA23 disponibili, aprendo nuove prospettive per l'adozione di questa archit...

2026-02-05 LocalLLaMA

Hugging Face: problemi di accesso, ma servizi attivi?

Segnalazioni di difficoltà di accesso alla piattaforma Hugging Face si sono diffuse online. Alcuni utenti riportano di non riuscire ad accedere, mentre altri affermano che i servizi principali rimangono operativi. La causa del problema e la sua esten...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 LocalLLaMA

vLLM-Omni: inference multimodale any-to-any con efficienza migliorata

Il team di vLLM ha presentato vLLM-Omni, un sistema progettato per modelli multimodali any-to-any che gestiscono testo, immagini, video e audio. L'architettura include la decomposizione del grafo basata su stage, il batching per stage e l'allocazione...

#Hardware #LLM On-Premise
2026-02-05 The Register AI

Sovranità dei dati: priorità anche per il settore privato

OpenNebula evidenzia come la sovranità dei dati stia diventando una preoccupazione crescente anche per le aziende private, non solo per il settore pubblico. Politiche, licenze e costi influenzano le decisioni, spingendo verso un controllo maggiore su...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Ricerca LLM in locale: configurazioni e strumenti per il 2026

Un utente di Reddit cerca alternative a ChatGPT Deep Research per eseguire analisi approfondite con LLM in locale. La configurazione attuale include 3 GPU 3090, OpenWebUI e SearXNG, ma l'accuratezza non è paragonabile a quella di ChatGPT. L'articolo ...

#Hardware #LLM On-Premise #DevOps
2026-02-05 Phoronix

NetBSD: Kernel con Lua, ma niente Rust in arrivo

Mentre Linux e FreeBSD valutano l'integrazione di Rust nel kernel, NetBSD sembra orientata verso una direzione diversa. Uno degli sviluppatori ha chiarito che l'adozione di Rust nel kernel di NetBSD non è nei piani a breve termine, preferendo invece ...

#LLM On-Premise #DevOps
2026-02-05 MIT Technology Review

Il grafico sull'IA che genera più fraintendimenti

Un grafico prodotto da METR, un'organizzazione no-profit di ricerca sull'IA, è diventato un punto di riferimento per valutare i progressi dei modelli linguistici di grandi dimensioni (LLM). Tuttavia, la sua interpretazione è spesso fonte di confusion...

#LLM On-Premise #DevOps
2026-02-05 Phoronix

Intel ISPC 1.30: supporto AMX integrato nella libreria standard

Disponibile la versione 1.30 di Intel ISPC (Implicit SPMD Program Compiler), che introduce il supporto AMX (Advanced Matrix Extensions) nella libreria standard. ISPC è un linguaggio di programmazione derivato dal C, progettato per sfruttare al meglio...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

AnyTTS: sintesi vocale universale per sistemi di AI conversazionale

Uno sviluppatore ha creato AnyTTS, un sistema che permette di usare qualsiasi motore di text-to-speech (TTS) con diverse interfacce di AI conversazionale, inclusi ChatGPT e modelli LLM locali. L'integrazione avviene tramite la clipboard, semplificand...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

LLM: backdoor sleeper-agent, una minaccia da fantascienza

I modelli linguistici di grandi dimensioni (LLM) sono esposti a minacce di sicurezza complesse, come le backdoor sleeper-agent. Questi attacchi, difficili da individuare, compromettono l'integrità e la sicurezza dei modelli, aprendo scenari da film d...

#LLM On-Premise #DevOps
2026-02-05 Tech.eu

Qontext raccoglie 2,7 milioni per il livello di contesto AI

La startup berlinese Qontext, specializzata nello sviluppo di un livello di contesto indipendente per l'intelligenza artificiale, ha ottenuto un finanziamento pre-seed di 2,7 milioni di dollari. L'obiettivo è espandere la piattaforma e il team per cr...

2026-02-05 Phoronix

Linux 7.0: Supporto migliorato per Nouveau e prestazioni NVK

Il kernel Linux 6.19 ha introdotto il supporto per pagine di memoria più grandi e compressione nel driver Nouveau, con l'obiettivo di migliorare le prestazioni dei driver NVIDIA open-source. Problemi iniziali avevano disabilitato questa funzionalità,...

#Hardware #LLM On-Premise #DevOps
2026-02-05 ArXiv cs.LG

Deep Learning Reversibile per NMR 13C in Chemoinformatica

Un nuovo modello di deep learning reversibile utilizza una rete neurale invertibile condizionale per collegare strutture molecolari e spettri NMR 13C. La rete, basata su blocchi biettivi i-RevNet, permette la predizione dello spettro dalla struttura ...

2026-02-05 ArXiv cs.AI

LLM: ragionamento potenziato per problemi matematici

Un nuovo metodo, Iteratively Improved Program Construction (IIPC), migliora le capacità di ragionamento matematico dei modelli linguistici di grandi dimensioni (LLM). IIPC affina iterativamente le catene di ragionamento programmatico, combinando il f...

2026-02-05 ArXiv cs.AI

TMK: Un nuovo approccio al prompting per migliorare le consegne degli LLM

Un nuovo studio esplora l'efficacia del framework Task-Method-Knowledge (TMK) per migliorare le capacità di ragionamento e pianificazione dei modelli linguistici di grandi dimensioni (LLM). I risultati mostrano che il prompting strutturato con TMK pu...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Google: attenzione sequenziale per modelli AI più efficienti

Google Research ha presentato una nuova tecnica, chiamata attenzione sequenziale, per rendere i modelli di intelligenza artificiale più leggeri e veloci senza compromettere l'accuratezza. L'innovazione promette di ridurre i costi computazionali e mig...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Modelli SOTA incompleti: la delusione di Youtu-VL-4B di Tencent

Un utente ha espresso frustrazione per il modello Youtu-VL-4B di Tencent, pubblicizzato come soluzione all'avanguardia (SOTA) per diverse attività di visione artificiale. Nonostante le promesse, il codice rilasciato è risultato incompleto, con funzio...

#DevOps
2026-02-05 DigiTimes

Jensen Huang: le fabbriche AI guideranno la reindustrializzazione

Secondo Jensen Huang, CEO di NVIDIA, le fabbriche di intelligenza artificiale rappresentano il motore di una nuova ondata di reindustrializzazione. Queste infrastrutture specializzate saranno fondamentali per lo sviluppo e l'implementazione di soluzi...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Codag: visualizzare i workflow LLM in VSCode

Uno sviluppatore ha creato Codag, un'estensione open source per VSCode che visualizza i workflow degli LLM direttamente nell'ambiente di sviluppo. Supporta diversi framework come OpenAI, Anthropic, Gemini, LangChain, LangGraph e CrewAI, oltre a vari ...

2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Kimi K2.5: nuovo record tra i modelli open-source su ECI

Kimi K2.5 stabilisce un nuovo primato tra i modelli open-source sull'Epoch Capabilities Index (ECI), un indice che aggrega diversi benchmark. Con un punteggio di 147, si allinea a modelli come o3, Grok 4 e Sonnet 4.5, pur rimanendo indietro rispetto ...

#LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

A16z investe 1,7 miliardi di dollari in infrastrutture AI

Andreessen Horowitz ha stanziato 1,7 miliardi di dollari del suo nuovo fondo da 15 miliardi per investimenti in infrastrutture AI. Il team si concentrerà su aziende come Black Forrest Labs, Cursor, OpenAI, ElevenLabs, Ideogram e Fal.

#LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next-FP8: un nuovo re per la generazione di codice?

Un utente di Reddit ha segnalato performance eccellenti del modello Qwen3-Coder-Next-FP8. La discussione si concentra sulla sua capacità di generazione di codice, suggerendo un potenziale miglioramento rispetto ad alternative esistenti. L'articolo or...

#Fine-Tuning
2026-02-04 Phoronix

Intel prepara le patch Linux per le GPU Xe3P_LPG di Nova Lake P

Gli ingegneri Intel stanno attivamente lavorando al supporto per i processori Nova Lake di prossima generazione. Gli ultimi sviluppi includono l'abilitazione del supporto grafico Xe3P_LPG e funzionalità di visualizzazione correlate tramite nuove patc...

#Hardware #LLM On-Premise #DevOps
2026-02-04 Phoronix

Mesa disabilita LTO per bug di difficile risoluzione

Il progetto Mesa ha deciso di disabilitare l'utilizzo di ottimizzazioni LTO (Link-Time Optimization) durante la compilazione a causa di bug difficili da individuare e correggere. L'LTO, pur offrendo vantaggi prestazionali, introduce complessità nel d...

2026-02-04 TechCrunch AI

Roblox: funzionalità di creazione 4D ora in open beta

La tanto attesa funzionalità di creazione 4D di Roblox è ufficialmente disponibile in open beta. Questa nuova feature promette di aprire nuove frontiere per gli sviluppatori di esperienze interattive sulla piattaforma.

#LLM On-Premise #DevOps
2026-02-04 Google AI Blog

Novità Google AI: annunci di gennaio

Panoramica degli annunci di Google nel settore dell'intelligenza artificiale, focalizzata sulle nuove iniziative e sviluppi presentati a gennaio. L'articolo riassume le principali novità introdotte da Google nel campo dell'AI.

#LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Correzione vettoriale per Qwen3Next in llama.cpp

Una pull request su llama.cpp introduce una correzione per il calcolo vettoriale `key_gdiff` nel modello Qwen3Next. La modifica, segnalata inizialmente su Reddit, mira a migliorare la precisione e l'efficienza del modello nell'ambito del progetto lla...

#LLM On-Premise #DevOps
2026-02-04 IEEE Spectrum

AlphaGenome: DeepMind interpreta il DNA non codificante con l'AI

DeepMind presenta AlphaGenome, uno strumento di deep learning per interpretare il DNA non codificante, quella parte del genoma che regola l'attività genica. AlphaGenome mira a migliorare la comprensione dei meccanismi biologici e accelerare la scoper...

#Fine-Tuning
2026-02-04 LocalLLaMA

Ollama sotto accusa: un dibattito infuocato nella community LocalLLaMA

Un recente thread su Reddit, nella community LocalLLaMA, ha sollevato un acceso dibattito sulle criticità di Ollama, un framework per l'esecuzione locale di modelli linguistici di grandi dimensioni (LLM). La discussione verte su presunte mancanze e a...

#LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Intern-S1-Pro: un nuovo modello linguistico di grandi dimensioni

È stato rilasciato Intern-S1-Pro, un modello linguistico di grandi dimensioni (LLM) con circa 1 trilione di parametri. Sembra essere una versione scalata del modello Qwen3-235B, con un'architettura basata su 512 esperti.

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next REAP: nuovo modello GGUF da 48B

È disponibile un nuovo modello Qwen3-Coder-Next REAP da 48 miliardi di parametri, convertito in formato GGUF. Questo formato facilita l'utilizzo del modello su diverse piattaforme hardware, rendendolo accessibile a un'ampia gamma di sviluppatori e ri...

#Hardware #LLM On-Premise #DevOps
2026-02-04 Tom's Hardware

HetCCL: libreria per acceleratori AI eterogenei Nvidia e AMD

HetCCL è una libreria che mira a far collaborare acceleratori AI Nvidia e AMD all'interno dello stesso cluster, sfruttando RDMA. Questo approccio vendor-agnostic potrebbe semplificare i data center AI eterogenei, rimuovendo ostacoli all'interoperabil...

#Hardware #LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

Positron sfida Nvidia con chip AI: round da 230 milioni di dollari

Positron ha raccolto 230 milioni di dollari in un round di finanziamento Serie B, con la partecipazione del Qatar Investment Authority. L'azienda punta a competere con Nvidia nel mercato dei chip per l'intelligenza artificiale, in un contesto di cres...

#Hardware
2026-02-04 DigiTimes

Nvidia detta i tempi per HBM4: Samsung e SK Hynix in competizione

La competizione per la produzione di memorie HBM4 si intensifica, con Nvidia che gioca un ruolo chiave nel definire le specifiche. Samsung e SK Hynix si contendono la leadership in questo settore cruciale per le future GPU e acceleratori AI.

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next: Quantization NVFP4 disponibile (45GB)

È disponibile una versione quantizzata di Qwen3-Coder-Next in formato NVFP4, con un peso di 45GB. Il modello è stato calibrato utilizzando il dataset ultrachat_200k, con una perdita di accuratezza dell'1.63% nel benchmark MMLU Pro+.

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-04 DigiTimes

Forte domanda di server AI nel 2026, Vanguard Semiconductor ottimista

Vanguard International Semiconductor prevede una forte crescita della domanda di potenza per i server AI a partire dal 2026. La società si aspetta un impatto significativo sul mercato dei semiconduttori, con implicazioni per i produttori di hardware ...

#LLM On-Premise #DevOps
2026-02-04 DigiTimes

Penuria di memorie NOR Flash ad alta capacità: impatti sull'AI

L'aumento delle applicazioni di intelligenza artificiale sta intensificando la carenza di memorie NOR Flash ad alta capacità, in particolare le varianti SLC e MLC. Questa situazione potrebbe avere ripercussioni sulla produzione di dispositivi che ric...

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen-Coder-Next gira su ROCm su Strix Halo: test in locale

Un utente ha segnalato di essere riuscito a far girare il modello Qwen-Coder-Next su una piattaforma Strix Halo utilizzando ROCm. Il test è stato eseguito con llamacpp-rocm e una dimensione di contesto di 16k, aprendo nuove possibilità per l'esecuzio...

#Hardware #LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

ACE-Step-1.5: modello open source per audio generativo

È stato rilasciato ACE-Step-1.5, un modello open source per la generazione di audio con licenza MIT. Le sue performance si avvicinano a quelle di piattaforme commerciali come Suno. Il modello supporta LoRA e offre funzionalità di cover e repainting. ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-03 LocalLLaMA

ACE-Step 1.5: il modello open source che sfida Suno nella generazione musicale

È disponibile ACE-Step 1.5, un modello open source per la generazione di musica. Promette di superare Suno in termini di qualità, generando brani completi in circa 2 secondi su una GPU A100 e funzionando localmente su PC con 4GB di VRAM. Il codice, i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-03 LocalLLaMA

Qwen3-Coder-Next: nuovo modello di linguaggio per la programmazione

È disponibile Qwen3-Coder-Next, un nuovo modello linguistico sviluppato per applicazioni di programmazione. Il modello è accessibile tramite Hugging Face e la relativa discussione è attiva su Reddit. Questo rilascio rappresenta un aggiornamento signi...

2026-02-03 LocalLLaMA

Qwen3-Coder-Next: nuovo modello linguistico per la programmazione

È stato rilasciato su Hugging Face Qwen3-Coder-Next, un modello linguistico sviluppato per applicazioni di programmazione. La sua disponibilità sulla piattaforma facilita l'accesso e l'integrazione da parte degli sviluppatori. Il modello promette di ...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Difendersi dai bot su LocalLLaMA: strategie e contromisure

Un utente di LocalLLaMA solleva preoccupazioni riguardo all'attività dei bot sulla piattaforma, inclusi commenti ingannevoli e manipolazione dei voti. La discussione si concentra sulla necessità di strategie di difesa per proteggere la comunità da qu...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

GLM rilascia un modello OCR open source

GLM ha rilasciato un modello di riconoscimento ottico dei caratteri (OCR) open source. Il modello, denominato GLM-OCR, è disponibile su Hugging Face. Sembra essere composto da un modello di visione da 0.9 miliardi di parametri e un modello linguistic...

#LLM On-Premise #DevOps
2026-02-03 DigiTimes

xAI di SpaceX: implicazioni energetiche e IPO in forse

L'acquisizione di xAI da parte di SpaceX solleva interrogativi sulle future esigenze energetiche dei modelli di intelligenza artificiale e potrebbe influenzare i piani di offerta pubblica iniziale (IPO) dell'azienda aerospaziale. L'articolo evidenzia...

#LLM On-Premise #DevOps
2026-02-02 Ars Technica AI

OpenAI lancia l'app desktop Codex per macOS, sfida Claude Code

OpenAI ha rilasciato una app desktop per macOS dedicata a Codex, il suo strumento di sviluppo basato su modelli linguistici di grandi dimensioni (LLM). Questa mossa mira a competere con Claude Code di Anthropic, offrendo un'alternativa alle interfacc...

#LLM On-Premise #DevOps
2026-02-02 OpenAI Blog

Codex: ambiente di sviluppo AI centralizzato per macOS

Codex è una nuova applicazione per macOS che funge da centro di controllo per lo sviluppo di applicazioni AI e software. Permette di gestire agenti multipli, flussi di lavoro paralleli e task di lunga durata, il tutto in un'unica interfaccia.

2026-02-02 Tom's Hardware

Huang (Nvidia): TSMC deve accelerare per soddisfare la domanda AI

Il CEO di Nvidia, Jensen Huang, avverte che TSMC, il principale produttore di chip, dovrà incrementare significativamente la sua capacità produttiva per tenere il passo con la crescente domanda di hardware per l'intelligenza artificiale. Huang preved...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Advantech unico vendor IPC al banchetto Nvidia: focus sull'edge AI

Advantech si distingue come unico fornitore di IPC invitato al banchetto di Nvidia, segnalando un crescente interesse verso soluzioni edge AI. Questa mossa sottolinea l'importanza dell'inference AI distribuita e delle capacità di calcolo locale per a...

#Hardware #LLM On-Premise #DevOps
2026-02-02 DigiTimes

Produttori taiwanesi di PCB puntano al mercato dei server AI nel 2026

I produttori taiwanesi di circuiti stampati (PCB) stanno investendo in nuove capacità produttive, previste per il 2026, per soddisfare la crescente domanda di server dedicati all'intelligenza artificiale. Questa mossa strategica mira a posizionare le...

#LLM On-Premise #DevOps
2026-02-02 DigiTimes

Micron aumenta gli investimenti in memorie in vista di HBM4

Micron sta incrementando i suoi investimenti globali nel settore delle memorie. Questa mossa strategica arriva in un momento cruciale, con Nvidia pronta a lanciare la sua nuova generazione di memorie HBM4, destinate a GPU ad alte prestazioni per cari...

#Hardware #LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

Modelli LLM non censurati disponibili su Hugging Face

Una panoramica dei modelli linguistici di grandi dimensioni (LLM) non censurati disponibili sulla piattaforma Hugging Face. La lista include varianti di GLM, GPT OSS, Gemma e Qwen, con diversi metodi di rimozione delle restrizioni. L'articolo fornisc...

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

vLLM-MLX su Apple Silicio: throughput superiore fino all'87%

Una recente ricerca confronta le prestazioni di vLLM-MLX su Apple Silicio con llama.cpp, evidenziando un throughput significativamente superiore. I risultati suggeriscono potenziali vantaggi nell'utilizzo di hardware Apple per inference di modelli li...

#LLM On-Premise #DevOps
2026-02-01 DigiTimes

I CSP aumentano il CapEx AI grazie alla supply chain più stabile

I cloud service provider (CSP) stanno incrementando gli investimenti in infrastrutture AI, grazie a una maggiore stabilità della supply chain. Questo aumento di CapEx è un indicatore della crescente domanda di risorse computazionali per l'intelligenz...

#Hardware #LLM On-Premise #DevOps
2026-01-31 LocalLLaMA

Modelli open-source: una valutazione realistica

Una discussione su Reddit si interroga sullo stato attuale dei modelli linguistici open-source rispetto ai modelli proprietari più avanzati (SOTA). L'analisi, basata sull'esperienza pratica piuttosto che sui benchmark standard, offre una prospettiva ...

#LLM On-Premise #DevOps
2026-01-30 LocalLLaMA

GPT-OSS: un modello open-source ancora competitivo?

Un utente di LLM locali si interroga sull'eccezionale performance di GPT-OSS 120B, un modello open-source datato ma ancora competitivo. Nonostante le nuove architetture e modelli, GPT-OSS eccelle per velocità, efficacia e tool calling. L'articolo esp...

#LLM On-Premise #Fine-Tuning #DevOps
2026-01-30 LocalLLaMA

Il design è guidato da modelli aperti: cambia il paradigma?

Un post su Reddit, proveniente dalla comunità LocalLLaMA, ipotizza un futuro (nel 2026) in cui i modelli open source dominano il campo del design. La discussione si concentra sull'impatto di questa tendenza e sulle sue implicazioni per il settore.

#LLM On-Premise #DevOps
2026-01-30 Phoronix

Intel LLM-Scaler-vLLM 1.3: supporto esteso per modelli LLM

Intel ha rilasciato la versione 1.3 di LLM-Scaler-vLLM, ampliando il supporto per un numero maggiore di modelli linguistici di grandi dimensioni (LLM). Questa nuova versione è progettata per funzionare su schede grafiche Intel Arc Battlemage tramite ...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic