Topic / Trend Rising

Sviluppo e Progressi dei Modelli di IA

Nuovi modelli di IA sono costantemente in fase di sviluppo, con un focus sul miglioramento dell'efficienza, la riduzione dei pregiudizi e l'espansione delle capacità. Le aziende stanno esplorando varie architetture e tecniche di addestramento per creare sistemi di IA più potenti e versatili.

Detected: 2026-02-09 · Updated: 2026-03-09

Articoli Correlati

2026-03-09 DigiTimes

MWC 2026: L'IA ridefinisce dispositivi, reti e policy sui dati

Il Mobile World Congress 2026 esplorerà come l'intelligenza artificiale sta trasformando radicalmente i dispositivi, le infrastrutture di rete e le normative sulla gestione dei dati. L'evento analizzerà le implicazioni future dell'IA in diversi setto...

#LLM On-Premise #DevOps
2026-03-09 ArXiv cs.CL

Efficienza nel Decoding di LLM con Grammatiche Vincolate

La ricerca analizza il decoding di LLM vincolato da grammatiche, dimostrando che grammatiche equivalenti possono avere costi computazionali diversi. Introduce una metrica per misurare la crescita dell'ambiguità strutturale e stabilisce limiti inferio...

#LLM On-Premise #DevOps
2026-03-09 ArXiv cs.AI

Modelli di Ragionamento AI: Controllo Difficile sulle Catene di Pensiero

Una nuova ricerca rivela che i modelli di ragionamento AI faticano a controllare le proprie 'catene di pensiero' (Chain-of-Thought, CoT). La capacità di manipolare il CoT è bassa, specialmente rispetto al controllo sull'output finale. Questo studio e...

#Fine-Tuning
2026-03-08 Tom's Hardware

OpenAI abbandona il progetto Stargate con Oracle: Meta interessata

OpenAI ha interrotto i piani per il massiccio data center Stargate a causa di mancati accordi con Oracle e problemi di affidabilità. Meta sembra interessata a sfruttare la capacità in eccesso derivante dalla decisione.

#LLM On-Premise #DevOps
2026-03-08 Phoronix

Rilicensing tramite LLM: nuova criticità per l'open source

L'utilizzo di modelli linguistici di grandi dimensioni (LLM) per riscrivere porzioni significative di codice e pubblicarle con licenze differenti sta sollevando preoccupazioni nella comunità open source. Un recente caso ha visto un progetto Python ri...

#LLM On-Premise #DevOps
2026-03-07 Tom's Hardware

AMD: driver Linux Radeon creato con AI e Python

Un vicepresidente di AMD ha utilizzato l'intelligenza artificiale per sviluppare un driver userland per Linux Radeon in Python. Un ingegnere AI ha affermato di non aver mai aperto l'editor durante il processo, evidenziando il potenziale dell'AI nella...

#Hardware #LLM On-Premise #DevOps
2026-03-07 Phoronix

AMD GAIA 0.16: Framework C++ per agenti AI su Ryzen

AMD ha rilasciato la versione 0.16 di GAIA, un framework open-source per lo sviluppo di agenti AI che girano localmente su hardware Ryzen AI. La novità principale è il supporto allo sviluppo in C++, eliminando la dipendenza da Python.

#Hardware #LLM On-Premise #DevOps
2026-03-07 The Register AI

Tokenomics AI: scalare l'inference è più complesso di più GPU

La scalabilità dell'inference AI è un tema complesso, che va oltre la semplice aggiunta di GPU o l'aumento dei token. L'articolo suggerisce che i data center AI possono essere visti come fabbriche, dove l'energia in ingresso si trasforma in token in ...

#Hardware #LLM On-Premise #DevOps
2026-03-07 The Next Web

Google semplifica l'accesso a Gmail e Drive per gli agenti AI

Google ha rilasciato 'gws', una nuova interfaccia a riga di comando su GitHub. Questo strumento unifica le API di Workspace, semplificando l'interazione tra agenti AI e servizi come Gmail e Drive. L'iniziativa sottolinea l'importanza crescente dell'A...

2026-03-07 The Next Web

Anthropic lancia un marketplace per software basato su Claude

Anthropic introduce un marketplace dedicato ai clienti enterprise che utilizzano le API e i servizi di Claude. Questa mossa strategica mira a consolidare la presenza di Anthropic nel settore enterprise, nonostante le sfide politiche e normative.

#LLM On-Premise #DevOps
2026-03-06 PyTorch Blog

KernelAgent: Ottimizzazione GPU Guidata dall'Hardware con Multi-Agent

Il team PyTorch ha rilasciato KernelAgent, un sistema agentico open source che ottimizza i kernel GPU basandosi sui segnali di performance dell'hardware. KernelAgent raggiunge un miglioramento medio di 1.56x rispetto a torch.compile e genera kernel c...

#Hardware #LLM On-Premise #DevOps
2026-03-06 TechCrunch AI

Anthropic, Pentagono e la competizione nell'IA: uno sguardo al mercato

Il Dipartimento della Difesa USA ha interrotto un contratto con Anthropic per divergenze sul controllo dei modelli IA, orientandosi verso OpenAI. La decisione solleva interrogativi sull'influenza militare sull'IA e sulla competizione nel settore.

#LLM On-Premise #DevOps
2026-03-06 OpenAI Blog

Codex Security: agente AI per la sicurezza delle applicazioni

Codex Security è un agente di sicurezza basato su intelligenza artificiale progettato per analizzare il contesto dei progetti, rilevare, validare e correggere vulnerabilità complesse con elevata precisione e riduzione dei falsi positivi.

2026-03-06 OpenAI Blog

Balyasny sviluppa un motore di ricerca AI per gli investimenti

Balyasny Asset Management ha creato un sistema di ricerca basato su AI, sfruttando GPT-5.4, una rigorosa valutazione dei modelli e workflow di agenti per trasformare l'analisi degli investimenti su vasta scala. L'articolo esplora l'architettura e l'i...

#LLM On-Premise #DevOps
2026-03-06 LocalLLaMA

Agentic Loop e MCP Client integrati in llama.cpp

La webUI Agentic Loop e MCP Client, con supporto per strumenti, risorse e prompt, sono stati integrati in llama.cpp. Questa integrazione offre nuove possibilità per l'esecuzione di modelli localmente, aprendo la strada a workflow più complessi e auto...

#LLM On-Premise #DevOps
2026-03-06 Phoronix

Oracle aggiorna Solaris CBE gratuito per sviluppo open source

Oracle ha rilasciato una nuova versione di Solaris CBE (Common Build Environment), disponibile gratuitamente per sviluppatori open source e utilizzi non di produzione. Questa release offre un ambiente di sviluppo aggiornato per Solaris 11.4.

#LLM On-Premise #DevOps
2026-03-06 Tech.eu

TaxDown riceve 4 milioni € da BBVA Spark per l'AI

La fintech spagnola TaxDown, specializzata in dichiarazioni fiscali digitali, ha ottenuto 4 milioni di euro da BBVA Spark. Il finanziamento supporterà lo sviluppo di nuove soluzioni basate sull'intelligenza artificiale e l'espansione del team tecnico...

2026-03-06 DigiTimes

Microip porta la piattaforma AIVO per Edge AI sui droni

Microip, guidata dal presidente James Yang, estende la sua piattaforma AIVO per l'intelligenza artificiale a sistemi di droni, aprendo nuove possibilità per applicazioni edge in settori come sorveglianza e agricoltura di precisione. La piattaforma AI...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Alibaba: interrogativi sul futuro di Qwen dopo cambiamenti interni

La divisione cloud di Alibaba si trova ad affrontare interrogativi sulla continuità del suo modello linguistico di grandi dimensioni (LLM) Qwen, a seguito di improvvise partenze e cambiamenti strutturali interni. La riorganizzazione solleva dubbi sul...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Il Pentagono punta su Anthropic: implicazioni per la supply chain AI

La decisione del Pentagono di collaborare con Anthropic, società specializzata in intelligenza artificiale, evidenzia l'importanza crescente della supply chain nel settore AI. Questo accordo potrebbe avere ripercussioni significative sullo sviluppo e...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Samsung accelera sul 2nm e punta a triplicare i ricavi HBM

Samsung ha annunciato progressi più rapidi del previsto nella produzione di chip a 2nm. L'azienda punta a triplicare i ricavi derivanti dalle memorie HBM (High Bandwidth Memory), cruciali per le applicazioni di intelligenza artificiale e calcolo ad a...

#Hardware #LLM On-Premise #DevOps
2026-03-06 The Next Web

Netflix acquisisce la startup AI di Ben Affleck, InterPositive

Netflix ha acquisito InterPositive, una startup fondata da Ben Affleck nel 2022. L'azienda sviluppa strumenti di post-produzione basati su intelligenza artificiale, addestrati su riprese reali anziché prompt testuali. L'acquisizione avviene in un mom...

#LLM On-Premise #DevOps
2026-03-06 The Next Web

Evervault raccoglie 21 milioni per crittografia end-to-end dei pagamenti

La startup Evervault, con sedi a Dublino e New York, ha ottenuto un finanziamento di 21 milioni di euro per potenziare la sua piattaforma di crittografia dei dati di pagamento. L'azienda afferma di elaborare mensilmente transazioni per oltre 4,2 mili...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Il presidente di SK Group incontrerà il CEO di Nvidia al GTC

Tae-Won Chey, presidente di SK Group, prevede un incontro con il CEO di Nvidia durante il GTC. L'incontro potrebbe focalizzarsi su collaborazioni nel settore dell'intelligenza artificiale e dei semiconduttori.

#Hardware #LLM On-Premise #DevOps
2026-03-06 The Next Web

Revolut punta agli USA: richiesta formale per una licenza bancaria

La società fintech Revolut ha presentato domanda alle autorità di regolamentazione statunitensi (OCC e FDIC) per ottenere una licenza bancaria negli Stati Uniti. L'azienda prevede di investire 500 milioni di dollari nel mercato americano e ha nominat...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Settore spaziale UK: crisi nella supply chain minaccia il futuro

Il settore spaziale britannico lancia l'allarme: la frammentazione della supply chain rischia di bloccare le attività. Si richiede un cambio di strategia, passando da finanziamenti a contratti per garantire la continuità operativa e la crescita del s...

2026-03-06 The Next Web

Unleash riceve 35 milioni per gestire codice AI-generated

La startup norvegese Unleash ha raccolto 35 milioni di dollari per la sua piattaforma open-source di feature management. L'obiettivo è fornire ai team di sviluppo una rete di sicurezza mentre il codice generato dall'AI supera la capacità umana di rev...

2026-03-06 ArXiv cs.CL

Allineamento LLM: trigger semantici e vulnerabilità nascoste

La messa a punto di modelli linguistici con dati dannosi genera un disallineamento emergente. La ricerca mostra che i trigger semantici inducono spontaneamente la compartimentazione, creando vulnerabilità sfruttabili anche senza dati benigni di contr...

#LLM On-Premise #DevOps
2026-03-06 ArXiv cs.CL

CTRL-RAG: Reinforcement Learning per modelli RAG context-aware

Un nuovo approccio di reinforcement learning (RL) per migliorare i modelli RAG (Retrieval-Augmented Generation). CTRL-RAG utilizza un sistema di reward ibrido interno-esterno, ottimizzando la verosimiglianza delle risposte basate sul contesto. L'obie...

#Fine-Tuning #RAG
2026-03-06 ArXiv cs.LG

DNN per sistemi dinamici: Machine learning per rilevare biforcazioni

Un nuovo approccio di machine learning basato su reti neurali profonde (DNN), denominato EINN (equilibrium-informed neural networks), promette di identificare le soglie critiche associate a cambiamenti di regime catastrofici in sistemi dinamici compl...

#LLM On-Premise #DevOps
2026-03-06 ArXiv cs.LG

Previsioni Spazio-Temporali: Apprendimento nel Dominio della Frequenza

Un nuovo approccio, FreST Loss, affronta le limitazioni dei modelli di previsione diretta che faticano a catturare le complesse dipendenze spazio-temporali nei segnali strutturati a grafo. Allineando le previsioni del modello con i dati reali nel dom...

#Fine-Tuning
2026-03-06 ArXiv cs.AI

AI Incarnata e Trasformazione della Topologia Produttiva

Un nuovo studio prefigura una rivoluzione nella geografia economica della produzione, guidata dall'intelligenza artificiale incarnata. Superate determinate soglie di capacità, l'AI potrebbe decentralizzare la produzione, eliminare le aree di scarsa i...

#LLM On-Premise #DevOps
2026-03-06 ArXiv cs.AI

SkillNet: Un framework per la gestione e la valutazione di skill AI

SkillNet è una nuova infrastruttura open source progettata per creare, valutare e organizzare le skill degli agenti di intelligenza artificiale. Il sistema mira a superare i limiti dell'apprendimento isolato, consentendo agli agenti di riutilizzare e...

2026-03-06 DigiTimes

Leader cinesi dei chip chiedono un impegno nazionale per un'ASML cinese

I principali attori del settore dei semiconduttori in Cina sollecitano un'iniziativa su vasta scala per sviluppare un'azienda nazionale in grado di competere con ASML, leader mondiale nella produzione di macchinari per la litografia utilizzati nella ...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Supply chain tech: partner strategici oltre test e standard

Le aziende della supply chain assumono un ruolo sempre più cruciale, diventando partner strategici in un panorama tecnicico in rapida evoluzione, dove l'innovazione supera la capacità di definire standard e procedure di test.

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Advantech punta al 30% del mercato edge AI in 5 anni

Advantech, fornitore di piattaforme embedded, ha annunciato l'obiettivo di raggiungere una quota del 30% del mercato globale per le piattaforme edge AI nei prossimi cinque anni. La strategia si concentra sull'espansione delle soluzioni per l'intellig...

#LLM On-Premise #DevOps
2026-03-06 LocalLLaMA

Qwen3.5B: un salto di qualità rispetto ai modelli di 2 anni fa

Un post su Reddit evidenzia i progressi compiuti nel campo dei modelli linguistici di grandi dimensioni (LLM). Qwen3.5B, un modello relativamente recente, mostra prestazioni significativamente superiori rispetto ai modelli di dimensioni simili dispon...

#Hardware #LLM On-Premise #DevOps
2026-03-06 DigiTimes

Londra punta a essere il trampolino finanziario dell'era spaziale

Secondo DIGITIMES, Londra ambisce a diventare un hub finanziario chiave per l'industria spaziale emergente. La città cerca di attrarre investimenti e sviluppare competenze specialistiche nel settore aerospaziale, sfruttando la sua posizione di riliev...

#LLM On-Premise #DevOps
2026-03-06 LocalLLaMA

Qwen3.5: rilasciate versioni non censurate da 27B e 2B parametri

Disponibili nuove versioni non censurate dei modelli Qwen3.5, con varianti da 27B e 2B parametri. La versione da 27B offre un contesto di 262K token ed è completamente funzionante, mentre la versione da 2B è pensata come proof of concept. Entrambe in...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

USA valutano licenze globali per chip AI, legando export a investimenti

Gli Stati Uniti stanno considerando un sistema di licenze globali per l'export di chip per l'intelligenza artificiale. L'approccio legherebbe le autorizzazioni di esportazione a precisi impegni di investimento, con implicazioni significative per il m...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Taiwan: incentivi per chip di droni, robotica e satelliti LEO

Taiwan riorienta un programma di finanziamento da 9,5 miliardi di dollari USA verso lo sviluppo di chip per droni, robotica e satelliti in orbita terrestre bassa (LEO). L'iniziativa mira a rafforzare la competitività dell'isola nel settore aerospazia...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Foxconn: domanda di server AI spinge il fatturato di febbraio

Il fatturato di Foxconn a febbraio registra un aumento dell'8%, trainato dalla continua forte domanda di server dedicati all'intelligenza artificiale. La società beneficia della crescente necessità di infrastrutture hardware per carichi di lavoro AI.

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-06 DigiTimes

Tesla incrementa gli ordini di chip AI6 a Samsung Texas

Tesla prevede di raddoppiare gli ordini di chip AI6, destinati probabilmente ai suoi sistemi di intelligenza artificiale. Questa mossa incrementerà l'utilizzo della fabbrica Samsung in Texas, un nodo cruciale nella catena di approvvigionamento di sem...

#Hardware #LLM On-Premise #DevOps
2026-03-06 DigiTimes

Qwen di Alibaba perde il suo architetto: implicazioni per l'AI cinese

Le dimissioni dell'architetto di Qwen, il modello linguistico di grandi dimensioni (LLM) di Alibaba, sollevano interrogativi sul futuro della strategia cinese nel campo dell'intelligenza artificiale. L'articolo analizza le possibili conseguenze di qu...

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Conflitto USA-Israele: previsioni di Grok contro deployment di Claude

Un commento sull'accuratezza predittiva di Grok in relazione al conflitto USA-Israele, confrontandola con le scelte di deployment del modello Claude. L'articolo analizza le implicazioni delle diverse architetture e approcci di addestramento dei due m...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-06 DigiTimes

Qisda prevede calo dei ricavi, investe in AI in tre settori

Il presidente di Qisda, Peter Chen, prevede un calo dei ricavi a febbraio 2026. L'azienda sta espandendo gli investimenti in intelligenza artificiale in tre settori chiave. Non sono specificati i settori o l'entità degli investimenti.

#LLM On-Premise #DevOps
2026-03-06 DigiTimes

Ex SVP di TSMC guida l'ispezione AI nel packaging dei semiconduttori

Un ex vicepresidente senior di TSMC è alla guida di V5 Technologies, focalizzandosi sull'applicazione dell'intelligenza artificiale per migliorare i processi di ispezione nel packaging dei semiconduttori. L'obiettivo è ottimizzare la qualità e l'effi...

2026-03-06 The Register AI

Licenze software a rischio? Il caso Chardet riapre il dibattito

La controversia sulla licenza della libreria Python Chardet solleva interrogativi sul futuro delle licenze software, sia open source che commerciali, nell'era dell'intelligenza artificiale. Un'analisi del rischio per i modelli di business tradizional...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Bias e LLM: iniezione di dati per modelli più efficienti

Una nuova tecnica di training basata sull'iniezione di coppie di dati contrastivi in piccole dosi (0.05%) durante il pre-training sembra migliorare significativamente la resistenza ai bias e alla sicosi nei modelli linguistici di dimensioni ridotte (...

#Hardware #Fine-Tuning
2026-03-05 Ars Technica AI

Meta: filmati privati degli utenti Ray-Ban visionati da personale esterno

Un report svedese rivela che dipendenti di un subappaltatore Meta hanno visionato filmati sensibili ripresi dagli smart glasses Ray-Ban Meta. I lavoratori, impiegati da Sama (Kenya), si occupano di annotazione dati per i sistemi AI di Meta. La vicend...

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

Novità sull'adozione dell'AI: un nuovo canale di informazione

Un nuovo canale di notizie dedicato all'adozione dell'intelligenza artificiale offre approfondimenti pratici e framework per trasformare i progressi dell'AI in vantaggi concreti per il business. L'obiettivo è fornire strumenti utili per navigare le c...

#LLM On-Premise #DevOps
2026-03-05 TechCrunch AI

DiligenceSquared: AI e voice agent per la due diligence M&A

La startup DiligenceSquared, fondata da un ex principal di Blackstone e un ex consulente di BCG, ha raccolto 5 milioni di dollari. L'azienda utilizza l'intelligenza artificiale e voice agent per rendere più accessibile la ricerca nel settore delle fu...

2026-03-05 The Register AI

Il CEO di Okta teme la competizione delle IA nel mercato SaaS

Todd McKinnon, CEO di Okta, esprime preoccupazione per la potenziale capacità delle IA di competere con le applicazioni SaaS offerte dalla sua azienda. Nonostante ritenga difficile replicare la qualità dei suoi servizi con le sole IA, McKinnon rimane...

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

Cinque modelli di valore dell'AI per la trasformazione aziendale

Un nuovo studio identifica cinque modelli di valore nell'implementazione dell'intelligenza artificiale, spaziando dalla formazione della forza lavoro alla riprogettazione dei processi. L'obiettivo è fornire alle aziende un approccio strutturato per i...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Apple interrompe la produzione del Mac Studio da 512GB

Apple ha rimosso dal suo sito web la configurazione del Mac Studio con 512GB di memoria. Non è chiaro se si tratti di una sospensione temporanea in vista di un aggiornamento del prodotto o di una decisione definitiva dovuta alla scarsità di DRAM.

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

ChatGPT si integra con Excel e dati finanziari

OpenAI presenta l'integrazione di ChatGPT con Excel e nuove applicazioni finanziarie, potenziata da GPT-5.4. L'obiettivo è accelerare la modellazione, la ricerca e l'analisi, specialmente in ambienti regolamentati.

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Whisper e le allucinazioni silenziose: come mitigarle

Un team ha scoperto che Whisper, durante i silenzi, genera frasi coerenti ma inesistenti, non semplice rumore. Analizzano le cause, legate al training su YouTube, e propongono soluzioni: un pre-filtro con Silero VAD, la disattivazione di 'condition_o...

#Fine-Tuning
2026-03-05 The Next Web

Validio raccoglie 30 milioni per l'AI readiness dei dati

La startup svedese Validio ha ottenuto 30 milioni di dollari per la sua infrastruttura che mira a garantire che i dati aziendali siano effettivamente pronti per l'intelligenza artificiale. L'azienda si concentra sulla risoluzione dei problemi che eme...

#LLM On-Premise #DevOps
2026-03-05 404 Media

Proton Mail: dati utente a FBI in caso 'Stop Cop City'

Il provider di email Proton Mail ha fornito alle autorità svizzere dati di pagamento che l'FBI ha utilizzato per identificare un presunto membro del movimento 'Stop Cop City' di Atlanta. Le informazioni sono state ottenute tramite un trattato di assi...

2026-03-05 Tom's Hardware

Intel: cambio al vertice del consiglio di amministrazione

Frank Yeary lascia la presidenza del consiglio di amministrazione di Intel. L'azienda nomina un ingegnere per guidare il board, mentre si cercano soluzioni per la governance di Intel Foundry. Si ripercorrono gli anni di Yeary alla guida.

#Hardware
2026-03-05 TechCrunch AI

Luma lancia agenti AI creativi con modelli di 'Unified Intelligence'

Luma ha presentato Luma Agents, basati sui nuovi modelli di "Unified Intelligence". Questi agenti sono progettati per coordinare sistemi AI multipli e generare lavoro creativo end-to-end attraverso testo, immagini, video e audio. L'obiettivo è automa...

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

OpenAI presenta GPT-5.4: modello all'avanguardia per uso professionale

OpenAI ha annunciato GPT-5.4, un nuovo modello di frontiera progettato per applicazioni professionali. Il modello vanta capacità avanzate di sviluppo, utilizzo del computer e ricerca di strumenti, oltre a una finestra di contesto di 1 milione di toke...

#LLM On-Premise #DevOps
2026-03-05 TechCrunch AI

OpenAI lancia GPT-5.4: modelli Pro e Thinking per uso professionale

OpenAI ha annunciato GPT-5.4, descrivendolo come il suo modello di frontiera più efficiente e performante per applicazioni professionali. La nuova versione punta a migliorare le consegne in ambito lavorativo, offrendo capacità avanzate di ragionament...

#LLM On-Premise
2026-03-05 LangChain Blog

Valutazione delle skill per agenti di programmazione: best practice

La creazione di skill per agenti di programmazione richiede una fase di test accurata. Questo articolo esplora le best practice per valutare le skill, dalla definizione di task specifici alla misurazione delle performance, con un focus sull'importanz...

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

OpenAI: controllo della catena di pensiero negli LLM è complesso

OpenAI ha introdotto CoT-Control, evidenziando come i modelli di ragionamento abbiano difficoltà a controllare le proprie catene di pensiero. Questo sottolinea l'importanza della monitorabilità come salvaguardia per la sicurezza dell'intelligenza art...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Qwen 3.5 9B: un agente LLM locale su MacBook Pro M1

Un utente ha testato il modello linguistico Qwen 3.5 9B come agente di automazione locale su un MacBook Pro con chip M1. I risultati mostrano buone capacità di richiamo della memoria e di utilizzo di strumenti, pur con limiti nel ragionamento comples...

#LLM On-Premise #DevOps
2026-03-05 OpenAI Blog

OpenAI: strumenti e certificazioni per l'AI nell'istruzione

OpenAI introduce nuove risorse per colmare il divario di competenze sull'intelligenza artificiale in scuole e università. L'iniziativa include strumenti, certificazioni e metriche per valutare e migliorare l'utilizzo dell'AI nel settore educativo, am...

2026-03-05 TechCrunch AI

Meta nel mirino per la privacy degli smart glasses: indagine sui dati

Meta è stata citata in giudizio per presunte violazioni della privacy legate ai suoi smart glasses dotati di AI. L'accusa riguarda la revisione di filmati sensibili degli utenti da parte di terzi, nonostante le promesse di controllo e riservatezza da...

2026-03-05 Tom's Hardware

Forte domanda di CPU: Intel e AMD prevedono picchi grazie all'AI

Intel e AMD segnalano un aumento della domanda di CPU, spinto dall'adozione di modelli di AI. Lisa Su, CEO di AMD, afferma che il business ha superato le aspettative, mentre Intel considera accordi a lungo termine con nuovi clienti. Questo segna un r...

#Hardware
2026-03-05 Google AI Blog

Novità Google AI: gli annunci di febbraio 2026

Panoramica degli ultimi aggiornamenti nel campo dell'intelligenza artificiale annunciati da Google nel febbraio 2026. L'articolo riassume le principali novità presentate dall'azienda.

2026-03-05 LocalLLaMA

FlashAttention-4: Nuova Architettura per Inference LLM

Presentata FlashAttention-4, una nuova architettura focalizzata sull'ottimizzazione dell'inference per modelli linguistici di grandi dimensioni (LLM). L'articolo originale punta a migliorare le prestazioni e l'efficienza nell'elaborazione delle conse...

#LLM On-Premise #DevOps
2026-03-05 Phoronix

NVIDIA rilascia i driver R595 beta per Linux con supporto Vulkan aggiornato

NVIDIA ha rilasciato la versione beta dei driver R595.45.04 per Linux, seguendo la pubblicazione dei driver R595 per Windows. Questa nuova versione introduce miglioramenti al supporto Vulkan e DRI3 v1.2, offrendo potenzialmente benefici per chi utili...

#Hardware #LLM On-Premise #DevOps
2026-03-05 Phoronix

Debian: focus su AI, diversità e apprezzamento dei collaboratori

Andreas Tille, leader del progetto Debian, ha fornito un aggiornamento sulle attività recenti, con particolare attenzione ai contributi nel campo dell'intelligenza artificiale, alla necessità di una maggiore diversità tra i collaboratori e all'import...

2026-03-05 LocalLLaMA

Ottimizzazioni GGUF per Qwen3.5: Unsloth punta all'efficienza

Unsloth rilascia un aggiornamento finale per i modelli Qwen3.5 in formato GGUF, focalizzandosi sul miglioramento del rapporto tra dimensione e divergenza KLD. Le ottimizzazioni includono un nuovo dataset di calibrazione e una riduzione della divergen...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-05 Phoronix

Redox OS: Vulkan e Node.js nativi sull'OS open-source in Rust

Gli sviluppatori di Redox OS hanno annunciato significativi progressi, tra cui l'implementazione dell'API Vulkan e il supporto nativo per Node.js. Questi aggiornamenti ampliano le capacità del sistema operativo open-source scritto in Rust, aprendo nu...

#Hardware #LLM On-Premise #DevOps
2026-03-05 Tech.eu

Revolut ritenta la licenza bancaria negli Stati Uniti

La fintech britannica Revolut ha presentato una nuova domanda per ottenere una licenza bancaria negli Stati Uniti, un passo cruciale per la sua espansione nel mercato americano. L'azienda, valutata 75 miliardi di dollari, punta a offrire servizi come...

2026-03-05 404 Media

Campagna di phishing a tema ICE per rubare credenziali di accesso

Una nuova campagna di phishing prende di mira gli utenti di piattaforme di email marketing, sfruttando la controversia sull'Immigration and Customs Enforcement (ICE) per indurli a rivelare le proprie credenziali. Gli attacchi simulano comunicazioni u...

2026-03-05 The Register AI

npmx: browser alternativo per il registro npm con interfaccia migliorata

È stato rilasciato in versione alpha npmx, un browser alternativo per il registro npm, nato dalla necessità di superare le problematiche dell'interfaccia ufficiale npmjs.com. Il progetto, avviato da Daniel Roe (Nuxt), ha rapidamente raccolto un ampio...

#LLM On-Premise #DevOps
2026-03-05 Tom's Hardware

Vib-OS: il sistema operativo AI che non esegue nemmeno Doom

Vib-OS, un sistema operativo con funzionalità AI, si è rivelato così inefficiente da non riuscire nemmeno a far funzionare il videogioco Doom. Il sistema non supporta la connessione a Internet e l'applicazione browser è un semplice visualizzatore di ...

#LLM On-Premise #DevOps
2026-03-05 TechCrunch AI

Narada: come i feedback dei clienti guidano una startup AI enterprise

David Park racconta come Narada, una startup nel settore dell'intelligenza artificiale enterprise, ha utilizzato i feedback di oltre 1000 chiamate con i clienti per iterare intenzionalmente il proprio prodotto, la raccolta fondi e la scalabilità. Un ...

2026-03-05 Tech.eu

Wilbe apre un laboratorio a Londra per startup scientifiche

Il fondo di venture capital Wilbe inaugura un laboratorio a Londra per supportare le startup scientifiche. L'obiettivo è rimuovere gli ostacoli infrastrutturali che spesso rallentano la crescita delle aziende appena finanziate, fornendo spazi attrezz...

2026-03-05 Tom's Hardware

OpenAI punta a un'alternativa a GitHub per il codice

OpenAI starebbe sviluppando una piattaforma di gestione del codice sorgente, potenzialmente in competizione diretta con GitHub, uno dei suoi maggiori investitori. La mossa arriva dopo interruzioni e disservizi frequenti sulla piattaforma GitHub.

#LLM On-Premise #DevOps
2026-03-05 MIT Technology Review

L'era dell'AI porta nuove forme di molestie online

L'aumento di agenti AI autonomi online sta aprendo nuove frontiere per le molestie. Un recente incidente ha visto un agente AI attaccare pubblicamente uno sviluppatore open source dopo che il suo codice era stato rifiutato. Esperti avvertono che, sen...

2026-03-05 DigiTimes

Advantech prevede un solido primo trimestre 2026 grazie all'Edge AI

Advantech si mostra ottimista riguardo al primo trimestre del 2026, sostenuta da una forte domanda nel settore dell'Edge AI e da elevati rapporti book-to-bill. L'azienda punta su soluzioni hardware avanzate per l'inference AI distribuita.

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

Google e Taiwan: rete sanitaria AI nazionale

Google collabora con Taiwan per creare la prima rete sanitaria nazionale basata sull'intelligenza artificiale. L'obiettivo è integrare l'AI nella pratica clinica quotidiana, trasformandola da strumento di audit a risorsa per la cura del paziente.

2026-03-05 DigiTimes

Coex accelera la trasformazione industriale guidata dall'AI

Coex si prepara ad accogliere l'edizione AW 2026, segnando un'accelerazione nella trasformazione industriale guidata dall'intelligenza artificiale. L'evento promette di essere un punto di riferimento per le aziende che desiderano integrare soluzioni ...

#LLM On-Premise #DevOps
2026-03-05 IEEE Spectrum

Formiche in alta definizione grazie a un acceleratore di particelle

Un team internazionale ha creato un atlante 3D ad alta risoluzione della morfologia delle formiche, chiamato Antscan. Utilizzando un acceleratore di particelle, i ricercatori hanno digitalizzato 792 specie di formiche, rendendo accessibili online mod...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Qwen3 vs Qwen3.5: un confronto delle performance

Un confronto delle performance tra i modelli Qwen3 e Qwen3.5, basato su dati provenienti da artificialanalysis.ai. L'analisi considera modelli densi e modelli Mixture-of-Experts, con una normalizzazione per stimare la scala computazionale equivalente...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Defezioni nel team Qwen di Alibaba: impatto sul titolo?

Il titolo di Alibaba ha subito un calo in seguito alla perdita di figure chiave nel team di sviluppo di Qwen, il suo modello linguistico di grandi dimensioni (LLM). L'articolo originale su Reddit ipotizza una correlazione tra le due notizie, aprendo ...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Elan punta su droni AI per compensare il calo del mercato PC

Elan prevede di compensare il declino del mercato PC con una crescita nel settore dei droni dotati di intelligenza artificiale. L'azienda punta sull'integrazione di moduli AI avanzati per espandere le proprie attività in nuovi mercati, sfruttando le ...

#LLM On-Premise #DevOps
2026-03-05 Tech.eu

VivaTech 2026: Sfide per startup aperte, focus su cloud e AI

VivaTech, uno dei principali eventi europei per startup e tecnicia, celebrerà il suo decimo anniversario a Parigi nel 2026. L'evento includerà le Startup Challenges, un'iniziativa per connettere startup con investitori e aziende, con un focus su clou...

2026-03-05 The Register AI

Manager UK Demandano AI per Decisioni Strategiche: Un Trend?

Un sondaggio condotto nel Regno Unito rivela che una significativa percentuale di dirigenti aziendali si affida a modelli di machine learning, in particolare LLM, per il supporto alle decisioni. Il report, basato su un campione di 200 leader, solleva...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Google celebra 20 anni a Taiwan e punta sull'IA

Sundar Pichai si è congratulato con la divisione taiwanese di Google per il suo ventesimo anniversario, sottolineando l'importanza strategica dell'isola per lo sviluppo futuro dell'intelligenza artificiale. L'azienda prevede di continuare a investire...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Keysight prevede aumento della domanda di test per infrastrutture AI

Keysight segnala una crescita della domanda di test per infrastrutture dedicate all'intelligenza artificiale. L'azienda prevede un aumento degli ordini nel settore, indicando una forte espansione del mercato delle soluzioni hardware per carichi di la...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-05 DigiTimes

Micron presenta SOCAMM2 da 256GB: memoria server AI scalabile a 2TB per CPU

Micron ha annunciato SOCAMM2, un nuovo modulo di memoria da 256GB progettato per server AI. La nuova tecnicia permette di scalare la memoria fino a 2TB per CPU, migliorando le prestazioni delle applicazioni di intelligenza artificiale. Questa soluzio...

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

OpenAI al lavoro su un'alternativa a GitHub?

Secondo indiscrezioni, OpenAI starebbe sviluppando una piattaforma simile a GitHub. La notizia solleva interrogativi sulle strategie future dell'azienda e sul suo ruolo nell'ecosistema dell'intelligenza artificiale.

#LLM On-Premise #DevOps
2026-03-05 Tech.eu

Fibionic raccoglie 3 milioni per la sua tecnicia bionica

La startup austriaca Fibionic ha ottenuto 3 milioni di euro in finanziamenti seed per la sua tecnicia bionica che mira a ottimizzare la produzione di materiali compositi leggeri. La tecnicia si ispira alla natura e promette di ridurre l'uso di materi...

2026-03-05 Tech.eu

Vectrix: startup logistica belga raccoglie 1,15 milioni di euro

La startup di Anversa Vectrix, specializzata in una piattaforma di inserimento ordini per la logistica basata su AI, ha ottenuto 1,15 milioni di euro in finanziamenti seed. L'obiettivo è l'espansione nei mercati europei, a partire dai paesi limitrofi...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

TSMC blinda Apple e Nvidia con il packaging avanzato per 20 anni

La strategia di TSMC nel packaging avanzato, con un orizzonte di 20 anni, consolida i rapporti con Apple e Nvidia. Questo approccio a lungo termine garantisce ai due colossi l'accesso a tecnicie all'avanguardia per i loro prodotti futuri, rafforzando...

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

UMC: Hsuan invita il settore tech a valorizzare Taiwan

John Hsuan, vicepresidente onorario di UMC, sottolinea l'importanza per il settore tecnicico di Taiwan di accrescere il proprio valore. Avverte inoltre che un ipotetico conflitto USA-Iran potrebbe protrarsi a lungo, con ripercussioni globali.

2026-03-05 LocalLLaMA

Nuova teoria matematica sull'Attention nei modelli LLM

Un anonimo proveniente da un forum coreano propone una nuova interpretazione matematica del meccanismo di Attention nei modelli linguistici di grandi dimensioni (LLM). La teoria suggerisce che la complessità computazionale sia intrinsecamente legata ...

2026-03-05 ArXiv cs.CL

Bias nei Modelli di Ricompensa Linguistici: Analisi e Mitigazione

La messa a punto dei modelli linguistici tramite modelli di ricompensa (RM) è vulnerabile a comportamenti indesiderati. Una nuova ricerca identifica bias persistenti in diversi RM di alta qualità, relativi a lunghezza, sottomissione, eccessiva sicure...

#LLM On-Premise #DevOps
2026-03-05 ArXiv cs.CL

AriadneMem: memoria a lungo termine per agenti LLM più efficienti

AriadneMem è un sistema di memoria strutturata per agenti LLM che affronta le sfide della gestione della memoria a lungo termine. Utilizza un approccio a due fasi per filtrare il rumore, unire i duplicati e ricostruire i percorsi logici mancanti tra ...

2026-03-05 ArXiv cs.LG

AOI: Apprendimento da traiettorie fallite per la diagnosi autonoma nel cloud

Un nuovo framework multi-agente, AOI (Autonomous Operations Intelligence), utilizza traiettorie operative fallite per migliorare i sistemi di diagnostica automatica nel cloud. AOI integra l'apprendimento basato sulle preferenze, un'architettura di es...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-05 ArXiv cs.LG

Trasformatori per grafi di conoscenza con attenzione al repository

Un nuovo modello combina frasi e dati strutturati mantenendo separate le rappresentazioni di conoscenza e linguaggio. Utilizza grafi di conoscenza e ipergrafi con ruoli specifici, codificandoli in un repository a cui un trasformatore linguistico può ...

2026-03-05 ArXiv cs.AI

Ottimizzazione continua di assistenti AI per lo shopping

Un nuovo studio presenta un approccio per valutare e migliorare gli assistenti AI conversazionali, focalizzandosi sullo shopping di generi alimentari. La ricerca introduce una rubrica di valutazione multi-dimensionale e strategie di ottimizzazione de...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Nvidia e OpenAI: Huang frena le aspettative sugli investimenti

Jensen Huang, CEO di Nvidia, indica un possibile ridimensionamento delle aspettative sugli investimenti in OpenAI. La notizia ha implicazioni per il mercato AI e gli investitori, in un contesto di crescente attenzione verso le infrastrutture di calco...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-05 DigiTimes

Asus: strategia edge AI per smart city nel 2026

Asus delinea la sua strategia per l'intelligenza artificiale distribuita (edge AI) destinata alle implementazioni nelle smart city a partire dal 2026. L'azienda punta a soluzioni che elaborano i dati localmente, riducendo la latenza e migliorando la ...

#LLM On-Premise #DevOps
2026-03-05 The Register AI

Broadcom: le aziende AI non svilupperanno chip proprietari a breve

Broadcom prevede di fornire acceleratori custom per Meta, OpenAI e Anthropic su larga scala. L'azienda sostiene che ciò dimostra come lo sviluppo di silicio proprietario da parte delle aziende AI e degli hyperscaler sia ancora lontano dall'essere una...

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

Apple punta su TSMC e Foxconn per la filiera di chip negli USA

Secondo Digitimes, Apple sta collaborando con TSMC e Foxconn per rafforzare la sua catena di approvvigionamento di chip negli Stati Uniti. Questa mossa strategica mira a ridurre la dipendenza da fornitori esteri e garantire una maggiore stabilità nel...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Consumo energetico dell'AI: USA cercano soluzioni, la Cina avanza

Le aziende tecniciche statunitensi stanno esplorando soluzioni per gestire l'elevato consumo energetico richiesto dall'intelligenza artificiale. Nel frattempo, la Cina sta sviluppando un vantaggio competitivo grazie a una maggiore disponibilità di en...

2026-03-05 DigiTimes

Competizione sui PCB AI: Taiwan sotto pressione da quattro economie

La crescente domanda di PCB (Printed Circuit Boards) per applicazioni AI sta intensificando la competizione tra diverse economie. Taiwan, tradizionalmente leader nel settore, si trova ora a fronteggiare una pressione crescente da parte di altri paesi...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Alibaba: il modello Qwen rimarrà open source

Il CEO di Alibaba ha confermato che il modello linguistico di grandi dimensioni (LLM) Qwen continuerà a essere sviluppato e distribuito con licenza open source. Questa decisione strategica potrebbe favorire l'adozione del modello in scenari on-premis...

#LLM On-Premise #DevOps
2026-03-05 LocalLLaMA

Google corteggia ex sviluppatori di Qwen per Gemma?

Un post su Reddit suggerisce che Google stia cercando di reclutare ex membri del team di Qwen, il modello linguistico sviluppato da Alibaba, per potenziare il suo modello Gemma. La notizia solleva interrogativi sulle strategie di Google nel campo del...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Broadcom e TSMC: chip AI 3.5D per competere con Nvidia

Broadcom e TSMC collaborano su chip per applicazioni di intelligenza artificiale, sfruttando l'integrazione 3.5D. Questa mossa strategica potrebbe posizionare Broadcom come concorrente diretto di Nvidia nel mercato degli ASIC (Application-Specific In...

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

Strategie di Singapore: spunti per il settore tech di Taiwan

Un'analisi delle strategie adottate da Singapore come piccolo stato, offrendo potenziali spunti e modelli per lo sviluppo del settore tecnicico di Taiwan. L'articolo, basato su dati di DIGITIMES, esplora come le peculiarità di Singapore possano esser...

2026-03-05 DigiTimes

Switch Tomahawk di Broadcom trainano la quota di mercato grazie all'AI

Broadcom sta guadagnando quote di mercato nel settore del networking grazie alla forte domanda di soluzioni per l'intelligenza artificiale, in particolare con i suoi switch Tomahawk. L'azienda beneficia della crescente necessità di infrastrutture di ...

#LLM On-Premise #DevOps
2026-03-05 DigiTimes

Broadcom punta a 100 miliardi di dollari con chip AI entro il 2027

Broadcom prevede di raggiungere un fatturato di 100 miliardi di dollari nel settore dei chip per l'intelligenza artificiale entro il 2027, grazie alla crescente domanda da parte degli hyperscaler. La società punta a consolidare la propria posizione n...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-05 TechCrunch AI

Nvidia ridimensiona gli investimenti in OpenAI e Anthropic

Il CEO di Nvidia, Jensen Huang, ha annunciato che gli investimenti della sua azienda in OpenAI e Anthropic saranno probabilmente gli ultimi. La spiegazione fornita solleva però interrogativi sulle strategie future di Nvidia nel panorama dell'intellig...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-05 DigiTimes

Broadcom supera le stime grazie all'AI: previsioni data center in rialzo

Broadcom ha superato le aspettative degli analisti, trainata da una forte crescita dei ricavi nel settore dell'intelligenza artificiale. Le previsioni per i data center sono state riviste al rialzo, indicando una crescente domanda di soluzioni per ca...

#Hardware #LLM On-Premise #DevOps
2026-03-05 DigiTimes

Syncmold punta al mercato satellitare con una fabbrica in Thailandia

Il produttore di stampi Syncmold si prepara a un'espansione nel settore satellitare, con l'apertura di un nuovo stabilimento in Thailandia prevista tra il 2026 e il 2027. L'azienda punta a capitalizzare la crescente domanda di componenti per comunica...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Un agente AI riscrive il proprio codice in un 'Truman Show' digitale

Un esperimento vede un agente AI, scritto in Rust, evolvere autonomamente. L'agente analizza il proprio codice, i log e i problemi su GitHub per decidere come migliorarsi, committando le modifiche se superano i test. Il processo è trasparente, con il...

2026-03-04 Wired AI

Grammarly usa (senza permesso) autori famosi per valutazioni AI

Superhuman, precedentemente nota come Grammarly, offre un nuovo strumento di revisione basato sull'intelligenza artificiale. Questo strumento fornisce feedback stilistici attingendo alle opere di autori famosi, sia viventi che defunti, senza aver ott...

2026-03-04 Ars Technica AI

Evo 2: AI open source addestrata su genomi complessi

Un nuovo modello di AI open source, Evo 2, è stato addestrato su genomi provenienti da tutti e tre i domini della vita, inclusi batteri, archeobatteri ed eucarioti. Questo sistema è in grado di identificare caratteristiche chiave anche in genomi comp...

2026-03-04 TechCrunch AI

Apple Music contrassegnerà la musica generata da IA

Apple Music introdurrà etichette di trasparenza per distinguere i brani musicali creati con l'intelligenza artificiale. L'adesione al sistema di etichettatura è volontaria per etichette e distributori, sollevando dubbi sulla sua efficacia complessiva...

2026-03-04 Phoronix

Intel prepara il supporto Xe3P per driver open-source OpenGL e Vulkan

Intel sta predisponendo il supporto per l'architettura grafica Xe3P nei driver open-source Mesa OpenGL "Iris" e Vulkan "ANV". Questo avviene in seguito all'abilitazione di Xe3P nel kernel Linux per le future grafiche integrate Nova Lake e l'accelerat...

#Hardware #LLM On-Premise #DevOps
2026-03-04 The Register AI

Falsi installer di OpenClaw infettati da malware tramite Bing AI

Installer contraffatti per l'agente AI OpenClaw, promossi tramite risultati di ricerca Bing AI, distribuiscono malware. Gli utenti che cercano "OpenClaw Windows" vengono reindirizzati a repository GitHub malevoli che diffondono information stealer e ...

#DevOps
2026-03-04 TechCrunch AI

Google Search: Canvas di Gemini in AI Mode disponibile negli USA

Google ha rilasciato negli Stati Uniti la funzionalità Canvas in AI Mode di Gemini all'interno della Ricerca Google. Questa nuova modalità, disponibile in inglese, permette agli utenti di creare piani, progetti e applicazioni direttamente dall'interf...

#LLM On-Premise #DevOps
2026-03-04 404 Media

Polymarket ritira scommessa su detonazione nucleare nel 2026

La piattaforma di scommesse Polymarket ha rimosso una scommessa riguardante la possibilità di una detonazione di arma nucleare entro il 2026. Il mercato aveva accumulato un volume di scambi vicino al milione di dollari prima di essere archiviato dal ...

2026-03-04 Ars Technica AI

Accusa: Gemini di Google istigò uomo al suicidio e ad atti violenti

Una causa legale intentata contro Google sostiene che il chatbot Gemini abbia spinto un uomo a compiere atti di violenza e lo abbia indotto al suicidio. L'uomo sarebbe stato manipolato da Gemini, che lo avrebbe convinto di essere un'intelligenza arti...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

WizardLM: modelli di ricompensa generativi, ampiezza e profondità

WizardLM ha pubblicato un nuovo studio che esplora come migliorare i modelli di ricompensa generativi (GRM) per LLM. La ricerca si concentra sull'importanza di bilanciare ampiezza e profondità nel ragionamento, a seconda del tipo di valutazione (sogg...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Qwen3.5-35B-A3B: performance vicina a Claude Opus con verifica continua

Un modello MoE (Mixture of Experts) chiamato Qwen3.5-35B-A3B, con soli 3 miliardi di parametri attivi, ha raggiunto prestazioni sorprendenti nel benchmark SWE-bench Verified Hard. Implementando una strategia di verifica continua dopo ogni modifica al...

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Microsoft Phi-4: modello multimodale compatto per ragionamento e visione

Microsoft presenta Phi-4-Reasoning-Vision-15B, un modello multimodale compatto basato su Phi-4-Reasoning e SigLIP-2. Questo modello open-weight utilizza una architettura mid-fusion per integrare visione e linguaggio, addestrato con supervised fine-tu...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-04 LocalLLaMA

Aggiornamenti sulla riorganizzazione del team Qwen

Aggiornamenti sulla riorganizzazione interna del team di sviluppo di Qwen, il modello linguistico di grandi dimensioni sviluppato da Alibaba. La notizia è stata diffusa tramite un post su X (ex Twitter) e discussa su Reddit.

#LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Qwen3.5-0.8B: inference LLM su hardware datato senza GPU

Un utente ha riportato prestazioni sorprendentemente buone con il modello Qwen3.5-0.8B su un sistema con CPU Intel i5 di seconda generazione e soli 4GB di RAM DDR3, dimostrando la possibilità di eseguire inference LLM anche su hardware meno recente e...

#Hardware #LLM On-Premise #DevOps
2026-03-04 LocalLLaMA

Disinformazione AI: Validare le fonti è cruciale

Un recente episodio su un forum dedicato agli LLM locali evidenzia come affermazioni errate, generate o meno da AI, possano diffondersi rapidamente. La validazione delle fonti e il pensiero critico sono essenziali per contrastare la disinformazione, ...

#LLM On-Premise #DevOps
2026-03-04 LangChain Blog

LangChain potenzia gli agenti AI con nuove 'skills' open source

LangChain introduce un set di 'skills' open source per migliorare le capacità degli agenti AI nel suo ecosistema. Queste 'skills', istruzioni e risorse specializzate, vengono caricate dinamicamente per ottimizzare le prestazioni degli agenti in compi...

2026-03-04 LangChain Blog

LangSmith CLI e Skills: Automazione e valutazione per agenti AI

LangSmith introduce una CLI e un set di 'skills' per migliorare le capacità degli agenti AI nel gestire il ciclo di vita dei modelli. Le skills offrono istruzioni e risorse specializzate, caricate dinamicamente per evitare sovraccarichi. L'integrazio...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-04 OpenAI Blog

Axios usa l'AI per il giornalismo locale ad alto impatto

Allison Murphy, COO di Axios, spiega come l'azienda sfrutta l'intelligenza artificiale per supportare i giornalisti locali, ottimizzare i flussi di lavoro delle redazioni e fornire giornalismo locale di grande impatto su vasta scala.

2026-03-04 The Register AI

AI in sanità: assistenti virtuali vulnerabili a manipolazioni

Esperti di sicurezza hanno dimostrato come un assistente virtuale basato su AI, progettato per gestire prescrizioni mediche, possa essere facilmente influenzato a fornire consigli errati o a modificare le dosi dei farmaci. Questo solleva preoccupazio...

2026-03-04 TechCrunch AI

Decagon completa offerta a 4,5 miliardi di dollari

La startup Decagon, specializzata in supporto clienti potenziato dall'intelligenza artificiale, ha finalizzato la sua prima offerta pubblica di acquisto, raggiungendo una valutazione di 4,5 miliardi di dollari. Questo evento sottolinea la crescente i...

2026-03-04 Microsoft Research

Microsoft presenta Phi-4: modello multimodale compatto per ragionamento

Microsoft ha rilasciato Phi-4-reasoning-vision-15B, un modello multimodale open-weight con 15 miliardi di parametri. Progettato per bilanciare capacità di ragionamento, efficienza e necessità di dati, eccelle in compiti di matematica, scienze e compr...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-04 OpenAI Blog

OpenAI valuta l'impatto dell'AI sull'apprendimento

OpenAI ha introdotto la Learning Outcomes Measurement Suite, uno strumento per valutare l'impatto dell'intelligenza artificiale sull'apprendimento degli studenti in diversi contesti educativi e nel tempo. L'iniziativa mira a fornire dati concreti sul...

2026-03-04 Tom's Hardware

Taiwan: boom della domanda energetica per semiconduttori e data center AI

Taiwan prevede un aumento della domanda di energia di oltre 5 GW entro il 2030, equivalente al consumo di quasi 4 milioni di abitazioni. La crescita è trainata principalmente dalla produzione di semiconduttori e dai deployment di data center dedicati...

#Hardware #LLM On-Premise #Fine-Tuning
2026-03-04 The Next Web

Interfacce AI più umane: un designer ripensa l'esperienza utente

Valentyn Pavliuchenko, a capo di Hosanna Studio, propone interfacce più intuitive per l'AI, superando le interazioni fredde e meccaniche. L'obiettivo è colmare il divario tra la potenza computazionale e la desiderabilità umana, affrontando il collo d...

2026-03-04 Phoronix

AMD EPYC in testa nelle performance RAN 5G/6G con OCUDU

La Linux Foundation ha presentato OCUDU Ecosystem Foundation al Mobile World Congress (MWC). L'iniziativa mira a promuovere l'innovazione open-source AI-RAN (Radio Access Network) per soluzioni di rete 5G e 6G. I primi test su server AMD EPYC e Intel...

#Hardware #LLM On-Premise #DevOps
2026-03-04 The Next Web

Mutable Tactics: 1,8 milioni di euro per droni autonomi con IA

La startup britannica Mutable Tactics ha raccolto 1,8 milioni di euro in un round pre-seed. L'obiettivo è sviluppare un software di intelligenza artificiale per l'automazione di droni, consentendo operazioni autonome e processi decisionali in scenari...

#LLM On-Premise #DevOps
2026-03-04 The Register AI

Data center UK riduce del 40% il consumo energetico AI su richiesta

Un data center britannico ha dimostrato la capacità di ridurre il consumo energetico dell'infrastruttura AI in risposta a eventi sulla rete elettrica, senza interrompere i carichi di lavoro critici. Il test, durato cinque giorni, ha visto la farm di ...

#Hardware #LLM On-Premise #DevOps
2026-03-04 TechCrunch AI

CollectivIQ: risposte AI più affidabili con il crowdsourcing dei chatbot

La startup CollectivIQ propone un approccio innovativo per migliorare l'accuratezza delle risposte AI. Aggregando le consegne di diversi modelli, tra cui ChatGPT, Gemini, Claude e Grok, la piattaforma mira a fornire agli utenti informazioni più compl...

#LLM On-Premise #DevOps
2026-03-04 Tom's Hardware

Nvidia investe 4 miliardi $ in fotonica per i data center

Nvidia investe massicciamente in Lumentum e Coherent per rafforzare le catene di approvvigionamento di interconnessioni per data center. L'obiettivo è finanziare ricerca e sviluppo negli Stati Uniti, incrementare la produzione e assicurarsi capacità ...

#Hardware
2026-03-04 The Register AI

Gram: un editor di testo in Rust derivato da Zed, senza AI e chat

Gram è un nuovo editor di testo scritto in Rust, nato come fork semplificato di Zed. Sono state rimosse le funzionalità AI e chat. Lo sviluppatore di Gram afferma che Zed Industries ha modificato i termini di servizio in seguito alla pubblicazione de...

#LLM On-Premise #DevOps
2026-03-04 Tom's Hardware

Driver Nvidia 595.71: limitazioni all'overclock su alcune GPU GeForce

Il nuovo driver Nvidia 595.71 sembra introdurre limitazioni all'overclock su alcune schede grafiche GeForce, in particolare sulle serie RTX 40 e 50. Non tutte le GPU sono interessate, ma il rilascio del driver sembra problematico per chi punta a spin...

#Hardware #LLM On-Premise #DevOps
2026-03-04 Phoronix

AMD: Driver GPU User-Space in Python grazie all'AI

Anush Elangovan, VP di AI Software di AMD, ha utilizzato Claude Code per sviluppare un driver user-space per GPU AMD interamente in Python. Questo driver mira a testare il codice ROCm e a facilitare il debug dello stack user-space ROCm/HIP.

#Hardware
2026-03-04 Tom's Hardware

Furto di API Gemini: addebiti per 82.000$ in due giorni

Un utente malintenzionato ha sfruttato una chiave API di Google Gemini rubata, generando addebiti per oltre 82.000 dollari in soli due giorni. Gli sviluppatori chiedono misure di sicurezza più efficaci per prevenire anomalie di utilizzo catastrofiche...

#LLM On-Premise #DevOps
2026-03-04 Tech.eu

Techstars chiude il programma di accelerazione a Torino

Techstars, società di venture capital e acceleratore di startup, conclude il suo programma di accelerazione a Torino. La decisione segue la sospensione di analoghe iniziative a Berlino, Parigi, Stoccolma e Oslo. Techstars ha investito in 69 startup t...

2026-03-04 The Next Web

GHARAGE Ventures lancia fondo da 40 milioni per travel tech

GHARAGE Ventures, con sedi a Berlino e Singapore, ha annunciato il lancio del suo Fondo I, un fondo da 40 milioni di euro focalizzato su tecnicie che plasmano il futuro delle infrastrutture di viaggio e del retail aeroportuale. Il fondo investirà a l...

2026-03-04 The Register AI

Problemi con Outlook.com: email bloccate e disagi per gli utenti

Microsoft ha bloccato numerose email destinate a utenti Outlook.com, causando disagi e rallentamenti. La causa sembrerebbe essere un errore o regole di blocco eccessivamente restrittive. La situazione è stata descritta come "carnage" da una fonte int...

2026-03-04 Tech.eu

PLD Space raccoglie 180 milioni per lanci satellitari

La società spagnola PLD Space ha ottenuto 180 milioni di euro in un round di finanziamento di Serie C, guidato da Mitsubishi Electric Corporation. L'investimento supporterà la transizione alle operazioni commerciali e l'espansione delle capacità indu...

2026-03-04 The Next Web

Oxa raccoglie 103 milioni per la guida autonoma industriale

Oxa, azienda specializzata in software per veicoli autonomi, ha ottenuto 103 milioni di dollari in un round di finanziamento di Serie D. L'obiettivo è espandere l'implementazione della sua piattaforma di guida autonoma nel settore industriale. Tra gl...

#Hardware
2026-03-04 DigiTimes

AGI e Snapdragon: AI privata sui dispositivi al MWC 2026

Al Mobile World Congress 2026, AGI e Snapdragon presentano soluzioni per l'esecuzione di intelligenza artificiale direttamente sui dispositivi, garantendo maggiore privacy e controllo dei dati. L'obiettivo è un'AI app-agnostica, fruibile da diverse a...

#LLM On-Premise #DevOps
2026-03-04 Tech.eu

Mutable Tactics: AI per droni militari con finanziamento da 2M$

La startup britannica Mutable Tactics ha raccolto 2,1 milioni di dollari per sviluppare software AI che migliora l'impiego di droni in scenari di combattimento con comunicazioni interrotte. Il finanziamento sarà utilizzato per ampliare il team di ing...

#LLM On-Premise #DevOps
2026-03-04 ArXiv cs.CL

NLLB-200: Geometria Multilingue e Rappresentazioni Concettuali Universali

Un nuovo studio analizza la geometria delle rappresentazioni di NLLB-200 di Meta, un modello Transformer encoder-decoder addestrato su 200 lingue. La ricerca indaga se il modello apprende rappresentazioni concettuali universali o se raggruppa le ling...

#LLM On-Premise #DevOps
2026-03-04 ArXiv cs.LG

ATPO: Ottimizzazione adattiva per dialoghi medici multi-turno

Un nuovo algoritmo, ATPO, affronta le sfide dell'incertezza nei dialoghi medici tramite LLM. ATPO alloca dinamicamente risorse di calcolo a stati di alta incertezza, migliorando la stima dei valori e l'esplorazione. L'ottimizzazione include pruning g...

2026-03-04 DigiTimes

Nvidia accelera la fotonica al silicio con accordi pluriennali

Nvidia ha stretto accordi pluriennali con Lumentum e Coherent, segnando un passo avanti significativo nella commercializzazione della fotonica al silicio. Queste collaborazioni potrebbero ottimizzare le interconnessioni ad alta velocità, cruciali per...

#Hardware
2026-03-04 DigiTimes

Nvidia e MediaTek investono in ottiche per data center AI

Nvidia e MediaTek stanno investendo in nuove tecnicie ottiche per i data center AI. Questi investimenti mirano a migliorare le prestazioni e l'efficienza energetica delle infrastrutture di calcolo necessarie per l'addestramento e l'inference dei mode...

#Hardware #LLM On-Premise #DevOps
2026-03-04 DigiTimes

Meta accelera la superintelligenza con una nuova unità AI applicata

Secondo DIGITIMES, Meta ha creato una nuova divisione di ingegneria AI applicata. L'obiettivo è accelerare lo sviluppo della superintelligenza, presumibilmente focalizzandosi sull'ottimizzazione di modelli e infrastrutture esistenti. Non sono noti de...

#LLM On-Premise #DevOps
2026-03-04 DigiTimes

Apple presenta M5 Pro e M5 Max con architettura Fusion e focus AI

Apple ha annunciato i nuovi chip M5 Pro e M5 Max, basati su una inedita architettura Fusion. I nuovi processori puntano a migliorare le prestazioni nell'ambito dell'intelligenza artificiale e del machine learning, integrando ottimizzazioni specifiche...

#Hardware #LLM On-Premise #DevOps
2026-03-04 DigiTimes

Hub di ricarica coreani come risorse di calcolo AI e città smart

Startup sudcoreane propongono di trasformare gli hub di ricarica per veicoli elettrici in risorse di calcolo per l'intelligenza artificiale. L'iniziativa mira a creare infrastrutture urbane più intelligenti e sostenibili, potenzialmente riducendo i c...

#LLM On-Premise #DevOps
2026-03-03 TechCrunch AI

Alibaba: cambio al vertice del team Qwen dopo una spinta sull'AI

Junyang Lin, responsabile tecnico del team Qwen di Alibaba, si è dimesso dopo il lancio di un importante modello di intelligenza artificiale. La notizia ha generato reazioni all'interno del team, sollevando interrogativi sulle strategie future del co...

#LLM On-Premise #DevOps
2026-03-03 TechCrunch AI

Super PAC finanzia opposizione a regolamentazione IA: il caso Bores

Un Super PAC sostenuto da un miliardario del settore tech sta investendo 125 milioni di dollari per contrastare i candidati favorevoli a una maggiore regolamentazione dell'intelligenza artificiale. Tra questi figura Alex Bores, ex dirigente tech in c...

2026-03-03 TechCrunch AI

ChatGPT: modello GPT-5.3 Instant riduce le risposte 'cringe'

OpenAI introduce un aggiornamento al modello GPT-5.3 Instant di ChatGPT per mitigare risposte considerate fastidiose dagli utenti. L'obiettivo è migliorare l'esperienza utente riducendo le interazioni indesiderate.

#LLM On-Premise #DevOps
2026-03-03 Phoronix

Intel Panther Lake: performance AI con OpenVINO e Xe3 B390

Test Linux sulle nuove GPU Intel Xe3 B390 (architettura Panther Lake) mostrano miglioramenti nelle prestazioni OpenGL, Vulkan e OpenCL rispetto alle generazioni precedenti. Analisi delle performance con Intel Rendering Toolkit e OpenVINO per carichi ...

#Hardware #LLM On-Premise #DevOps
2026-03-03 Tom's Hardware

Mercato DRAM sotto pressione: prezzi orari per la memoria AI?

La crescente domanda di memoria per applicazioni di intelligenza artificiale sta mettendo a dura prova il mercato DRAM. Un report suggerisce che i prezzi potrebbero passare a un modello di tariffazione oraria, con impatti significativi soprattutto pe...

#LLM On-Premise #DevOps
2026-03-03 Google AI Blog

Project Genie di DeepMind: crea nuovi mondi con l'AI

DeepMind presenta Project Genie, un'iniziativa che permette agli utenti di generare mondi virtuali tramite prompt testuali. L'articolo fornisce indicazioni su come formulare i prompt per ottenere i risultati desiderati. Un nuovo modo di creare conten...

#LLM On-Premise #DevOps
2026-03-03 Google AI Blog

Gemini 3.1 Flash-Lite: intelligenza artificiale scalabile ed efficiente

Google presenta Gemini 3.1 Flash-Lite, un modello della serie Gemini 3 progettato per offrire prestazioni elevate e costi contenuti. Questo modello mira a fornire intelligenza artificiale scalabile, ottimizzando l'efficienza computazionale per un'amp...

#LLM On-Premise #DevOps
2026-03-03 Phoronix

Apple M5 Pro e M5 Max: Nuova Architettura Fusion per le GPU

Apple ha presentato la nuova architettura Fusion con i SoC M5 Pro e M5 Max, dotati di GPU di nuova generazione. Questa architettura promette miglioramenti significativi nelle prestazioni grafiche, aprendo nuove possibilità per applicazioni profession...

#Hardware
2026-03-03 Tom's Hardware

Data center AI: controllo dinamico dei consumi energetici

Un trial supportato da Nvidia dimostra che i data center AI possono regolare dinamicamente il consumo energetico quasi in tempo reale. Questo suggerisce che gli hyperscaler possono ridurre il consumo quando necessario, evitando sovraccarichi della re...

#Hardware #LLM On-Premise #DevOps
2026-03-03 The Register AI

Adozione AI: le aziende faticano a gestire la velocità

I leader tecnici segnalano che l'adozione dell'intelligenza artificiale sta superando la capacità delle aziende di gestire i rischi e garantire la conformità. La pressione per implementare soluzioni AI si scontra con la necessità di piani di continui...

#LLM On-Premise #DevOps
2026-03-03 AI News

Sicurezza AI: confronto tra piattaforme enterprise nel 2026

L'intelligenza artificiale sta trasformando il panorama delle minacce informatiche. Le piattaforme di sicurezza AI si concentrano su protezione dell'uso aziendale dell'AI, difesa dei modelli e contrasto delle minacce potenziate dall'AI. Confrontiamo ...

2026-03-03 The Register AI

Microsoft punta a monetizzare gli agenti AI come fossero dipendenti

Microsoft starebbe pianificando di concedere in licenza gli agenti di intelligenza artificiale come fossero dipendenti, con un modello di costo basato sull'utilizzo. L'obiettivo è monetizzare l'impiego di "lavoratori digitali" all'interno delle azien...

#LLM On-Premise #DevOps
2026-03-03 Ars Technica AI

LLM smascherano utenti pseudonimi su larga scala

Una ricerca recente dimostra come i modelli linguistici di grandi dimensioni (LLM) possono identificare utenti dietro account pseudonimi sui social media con un'accuratezza sorprendente. Questo solleva serie preoccupazioni sulla privacy e la possibil...

#LLM On-Premise #DevOps
2026-03-03 AI News

IA fisica: KDDI e AVITA per umanoidi nel servizio clienti

KDDI e AVITA collaborano per sviluppare umanoidi IA destinati al servizio clienti, combinando interazione fisica e intelligenza artificiale. L'iniziativa mira a colmare le lacune operative dovute alla riduzione della forza lavoro, integrando avatar a...

#Hardware #LLM On-Premise
2026-03-03 AI News

Santander e Mastercard: pagamenti via AI in Europa

Banco Santander e Mastercard hanno realizzato il primo pagamento end-to-end in Europa eseguito da un'intelligenza artificiale all'interno di una rete bancaria reale. Il sistema, denominato Agent Pay, opera entro limiti e autorizzazioni predefiniti, a...

#LLM On-Premise #DevOps
2026-03-03 Tech.eu

Qura raccoglie 1,5 milioni di euro per la gestione della salute in Europa

La startup milanese Qura, specializzata in una piattaforma di gestione della salute basata su intelligenza artificiale, ha chiuso un round pre-seed da 1,5 milioni di euro. L'obiettivo è colmare le lacune nell'assistenza sanitaria preventiva, offrendo...

#LLM On-Premise #DevOps
2026-03-03 DigiTimes

Prototipi AI RAN promettono guadagni in uplink al MWC 2026

I prototipi AI RAN mostreranno i miglioramenti nell'uplink al MWC 2026. I vendor si preparano a presentare le ultime innovazioni nel campo delle reti di accesso radio basate su intelligenza artificiale, con l'obiettivo di ottimizzare le prestazioni e...

2026-03-03 The Next Web

LearnWorlds: piattaforma AI per creare corsi online

LearnWorlds sfrutta l'intelligenza artificiale per consentire la creazione di corsi online. La piattaforma si inserisce in un mercato in forte espansione, con un valore stimato di oltre 320 miliardi di dollari. Offre strumenti per la gestione complet...

2026-03-03 DigiTimes

MediaTek anticipa 6G, Wi-Fi 8 e chip AI al MWC 2026

MediaTek ha svelato le sue prossime innovazioni tecniciche che vedremo al Mobile World Congress (MWC) 2026. L'azienda si concentra su connettività di nuova generazione con il 6G e il Wi-Fi 8, oltre a nuove soluzioni per l'intelligenza artificiale bas...

#Hardware
2026-03-03 ArXiv cs.CL

Rappresentazioni grafiche contestuali per la classificazione di documenti

Un nuovo studio esplora l'uso di grafi per rappresentare documenti, sfruttando l'attenzione dinamica a finestra scorrevole per catturare dipendenze semantiche. Reti neurali basate su grafi (GAT) addestrate su questi grafi mostrano risultati prometten...

#LLM On-Premise #DevOps
2026-03-03 ArXiv cs.LG

StaTS: previsione di serie temporali con modelli di diffusione adattivi

Un nuovo modello di diffusione, StaTS, apprende dinamicamente la programmazione del rumore e il denoiser per migliorare la previsione di serie temporali. StaTS utilizza una regolarizzazione spettrale per preservare le strutture e un denoiser guidato...

#Fine-Tuning
2026-03-03 ArXiv cs.LG

Nuovo framework per reti di trasporto pubblico con incertezze

Un nuovo studio introduce un framework per la progettazione di reti di trasporto pubblico che considera le incertezze nella domanda. Il modello, denominato 2LRC-TND, utilizza machine learning e ottimizzazione stocastica contestuale per modellare sia ...

2026-03-03 ArXiv cs.AI

Fact-checking: LLM e grafi di conoscenza per la verifica delle notizie

Un nuovo approccio per il fact-checking online combina LLM e grafi di conoscenza per migliorare l'accuratezza e l'affidabilità delle verifiche. Il sistema utilizza un processo decisionale di Markov per valutare le affermazioni e recuperare evidenze s...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-03 DigiTimes

Perplexity presenta 'Computer', agente AI per decisioni aziendali

Perplexity ha annunciato 'Computer', un nuovo agente AI progettato per supportare le aziende nei processi decisionali. L'agente integra 19 modelli diversi e mira a fornire analisi approfondite e raccomandazioni basate sui dati per migliorare l'effici...

#LLM On-Premise #DevOps
2026-03-03 DigiTimes

TSMC guiderà la localizzazione di SiPh a Taiwan

Secondo DIGITIMES, TSMC si prepara a guidare un'iniziativa per la localizzazione di attrezzature e materiali relativi alla tecnicia Silicio Photonics (SiPh) a Taiwan. L'iniziativa mira a rafforzare la catena di approvvigionamento locale nel settore.

#LLM On-Premise #DevOps
2026-03-03 The Register AI

Huawei scommette sui datacenter AI flatpack con chip cinesi

Huawei entra nel mercato dell'intelligenza artificiale con datacenter modulari prefabbricati, equipaggiati con chip di produzione cinese. L'azienda promette tempi di implementazione rapidi, ma le prestazioni effettive restano da valutare in scenari r...

#Hardware #LLM On-Premise #DevOps
2026-03-03 DigiTimes

Prezzi DRAM: impennata fino al 70% nel 2026, Nvidia GTC alimenta il rally

Secondo Digitimes, i prezzi delle memorie DRAM sono destinati a subire un'impennata significativa, raggiungendo un aumento del 70% nel secondo trimestre del 2026. L'evento Nvidia GTC 2026 è indicato come catalizzatore di questa crescita, alimentando ...

#Hardware #LLM On-Premise #DevOps
2026-03-03 DigiTimes

Samsung Galaxy S26: focus sull'AI per una nuova esperienza utente

Secondo DIGITIMES, Samsung punta a espandere le funzionalità di intelligenza artificiale nel suo prossimo Galaxy S26, con l'obiettivo di trasformare l'esperienza utente. L'azienda coreana sembra intenzionata a integrare l'AI in modo più profondo nei ...

2026-03-03 DigiTimes

Ablecom ABLERACK: cabinet L11 rinforzato per AI ad alta densità

Ablecom presenta ABLERACK, un cabinet L11 progettato per ospitare deployment AI ad alta densità. La struttura rinforzata è testata per resistere a eventi sismici, garantendo stabilità e affidabilità in ambienti critici. Ideale per infrastrutture on-p...

#LLM On-Premise #DevOps
2026-03-03 DigiTimes

Holtek e Generalplus: Edge AI per elettrodomestici e smart glasses

Holtek e Generalplus ampliano le applicazioni di intelligenza artificiale (AI) a livello edge, concentrandosi su elettrodomestici intelligenti e smart glasses. Questa espansione mira a portare capacità di elaborazione AI direttamente sui dispositivi,...

#LLM On-Premise #DevOps
2026-03-02 TechCrunch AI

14.ai: AI per il supporto clienti nelle startup

La startup 14.ai, fondata da una coppia, sta sviluppando soluzioni di intelligenza artificiale per automatizzare il supporto clienti nelle startup. L'azienda ha lanciato un brand consumer per valutare le capacità dell'AI nella gestione delle interazi...

#LLM On-Premise #DevOps
2026-03-02 TechCrunch AI

Interruzione diffusa per il chatbot Claude di Anthropic

Il chatbot Claude di Anthropic ha subito una diffusa interruzione del servizio, con migliaia di utenti che segnalano problemi di accesso. L'incidente ha sollevato interrogativi sulla stabilità delle infrastrutture cloud che supportano i modelli di li...

#LLM On-Premise #DevOps
2026-03-02 TechWire Asia

Reti agentiche: Huawei spinge per standard di comunicazione AI

Huawei presenta soluzioni per reti agentiche, anticipando un futuro dove gli agenti AI gestiranno le connessioni di rete. L'azienda ha rilasciato Agentic Core e promosso A2A-T, un protocollo open source per la collaborazione multi-agente in ambito te...

#LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

Jan-Code-4B: un modello compatto ottimizzato per il codice

Il team di Jan ha rilasciato Jan-Code-4B, un modello di piccole dimensioni ottimizzato per attività di programmazione. Basato su Jan-v3-4B-base-instruct, mira a fornire assistenza nello sviluppo di codice, generazione, refactoring e debugging, manten...

#LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

LLM in locale: prestazioni in crescita con hardware compatto

L'articolo analizza i progressi compiuti nell'esecuzione di modelli linguistici di grandi dimensioni (LLM) in locale, evidenziando come le prestazioni siano migliorate significativamente grazie all'evoluzione dell'hardware. Si confrontano le capacità...

#Hardware #LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

Qwen 3.5: Attenzione alla Cache KV! Richiede BF16, non FP16

Un avviso per chi utilizza Qwen 3.5 in locale con llama.cpp: la cache KV deve essere impostata manualmente su BF16 (bfloat16) anziché sul valore predefinito FP16 (float16). Test di perplexity su wikitext-2-raw confermano che l'implementazione ufficia...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-02 LocalLLaMA

Alibaba rilascia CoPaw per workflow AI multicanale

Il team di Alibaba ha rilasciato CoPaw, una workstation personale ad alte prestazioni per aiutare gli sviluppatori a scalare i workflow di intelligenza artificiale multicanale. CoPaw è progettato per migliorare la gestione della memoria e l'efficienz...

#LLM On-Premise #DevOps
2026-03-02 LocalLLaMA

Qwen 3.5: nuova versione small disponibile

È stata rilasciata una nuova versione del modello linguistico Qwen 3.5. La versione 'small' potrebbe consentire consegne più efficienti su hardware con risorse limitate, aprendo nuove possibilità per applicazioni on-premise e ambienti edge.

#LLM On-Premise #DevOps
2026-03-02 DigiTimes

Taiwan Mobile punta su AI nativa e Open API al MWC 2026

Il Chief Information Officer di Taiwan Mobile, Rock Tsai, ha evidenziato al Mobile World Congress 2026 l'importanza crescente dei workflow "AI nativi" e delle Open API. L'azienda si posiziona così come un attore chiave nell'evoluzione delle telecomun...

#LLM On-Premise #DevOps
2026-03-02 TechWire Asia

Huawei: piattaforma di calcolo AI per aziende globali

Al Mobile World Congress 2026, Huawei ha presentato una piattaforma di calcolo AI per semplificare la creazione e la gestione dell'infrastruttura necessaria per i servizi di intelligenza artificiale. La soluzione promette tempi di realizzazione più r...

#Hardware #LLM On-Premise #DevOps
2026-03-02 AI News

Servizi finanziari: l'adozione dell'AI è irreversibile

Secondo un report di Finastra, l'adozione dell'intelligenza artificiale nei servizi finanziari è quasi universale. Le istituzioni si concentrano ora su come scalare l'AI in modo responsabile, governarla efficacemente e integrarla in modo affidabile i...

#LLM On-Premise #DevOps
2026-03-02 AI News

SK Telecom riorganizza la sua infrastruttura core con l'AI

Al MWC 2026, SK Telecom ha delineato una strategia "AI Native" che prevede la riorganizzazione completa della sua infrastruttura IT, l'espansione dei data center a livello di gigawatt e l'aggiornamento del suo modello linguistico di grandi dimensioni...

#LLM On-Premise #DevOps
2026-03-02 DigiTimes

AMD punta sull'IA nel 2026 con accordi nell'ecosistema OpenAI e Meta

Secondo fonti di Digitimes, AMD prevede una forte crescita nel settore dell'intelligenza artificiale nella seconda metà del 2026, grazie a partnership strategiche con OpenAI e Meta. Questa mossa posiziona AMD per competere nel mercato in rapida espan...

#Hardware #LLM On-Premise #DevOps
2026-03-02 Phoronix

AMD presenta le CPU Ryzen AI PRO 400 per desktop con focus sull'AI

AMD ha annunciato al Mobile World Congress di Barcellona la nuova serie Ryzen AI PRO 400, che include processori desktop Ryzen AI PRO 400. Questi processori sono progettati per carichi di lavoro che richiedono capacità di elaborazione avanzate per l'...

#Hardware #LLM On-Premise #DevOps
2026-03-02 ServeTheHome

AMD lancia i chip Ryzen AI 400 e PRO 400 per desktop

AMD ha annunciato la disponibilità dei processori Ryzen AI 400 e PRO 400 per PC desktop. Questi chip, anticipati al CES 2026, sono progettati per applicazioni che sfruttano l'intelligenza artificiale direttamente sul dispositivo, migliorando le prest...

#Hardware #LLM On-Premise #DevOps
2026-03-02 DigiTimes

MWC 2026: Taiwan punta su connettività AI e infrastrutture 5G

Le aziende taiwanesi del settore elettronico presentano al Mobile World Congress 2026 le loro ultime innovazioni in ambito di connettività basata su intelligenza artificiale e infrastrutture 5G. L'attenzione è rivolta a soluzioni che integrano AI per...

#LLM On-Premise #DevOps
2026-03-02 ArXiv cs.LG

U-CAN: Unlearning efficiente per la raccomandazione generativa

Un nuovo framework, U-CAN, affronta le problematiche di privacy nei sistemi di raccomandazione generativa basati su LLM. U-CAN mitiga la perdita di utilità durante il machine unlearning, attenuando selettivamente i parametri sensibili nei low-rank ad...

#LLM On-Premise #Fine-Tuning #DevOps
2026-03-02 ArXiv cs.AI

LLM agenti per lo screening di media avversi in ambito AML

Un nuovo sistema basato su LLM e RAG automatizza lo screening di media avversi, componente cruciale nei processi di AML e KYC. L'agente LLM ricerca, elabora documenti e calcola un indice di rischio, dimostrando capacità di distinguere tra individui a...

#RAG
2026-03-02 DigiTimes

Nvidia punta al 6G con piattaforme AI-native e aperte

Nvidia collabora con i principali operatori di telecomunicazioni per definire l'infrastruttura 6G. L'iniziativa si concentra su piattaforme aperte e AI-native, con l'obiettivo di accelerare l'innovazione e lo sviluppo di nuove applicazioni nel settor...

#Hardware #LLM On-Premise #DevOps
2026-03-01 DigiTimes

Google reintegra Intrinsic per accelerare l'AI fisica

Google ha annunciato il reintegro di Intrinsic, una società di robotica precedentemente operante come entità indipendente sotto Alphabet. Questa mossa strategica mira ad accelerare lo sviluppo di soluzioni di AI fisica, integrando le competenze di In...

#LLM On-Premise #DevOps
2026-03-01 Tech in Asia

LG Uplus presenta stack AI incentrato sull'uomo al MWC

LG Uplus presenterà al Mobile World Congress (MWC) soluzioni AI incentrate sull'utente, tra cui la Autonomous NW Solution e la Sovereign AI Full-Stack Solution. L'azienda punta a dimostrare il suo impegno verso tecnicie avanzate e personalizzate.

2026-03-01 LocalLLaMA

Imminente rilascio del modello Qwen3.5 Small Dense?

Indiscrezioni su Reddit suggeriscono l'imminente rilascio di Qwen3.5 Small Dense. La comunità open source attende con interesse per valutare le performance e le potenziali applicazioni di questo modello.

#Hardware #LLM On-Premise #DevOps
2026-03-01 LocalLLaMA

Inference LLM Bare-Metal: Avvio Diretto Senza OS su Dell E6510

Un sviluppatore ha creato un'applicazione UEFI che avvia direttamente un'interfaccia di chat LLM, bypassando il sistema operativo e il kernel. L'intera pila, dal tokenizer al motore di inference, è scritta in C senza dipendenze esterne. Attualmente, ...

#LLM On-Premise #DevOps
2026-02-28 DigiTimes

Fitipower punta su AI ed edge computing per una crescita nel 2024

Il produttore taiwanese Fitipower prevede una crescita nel 2024, grazie alla crescente domanda di chip per applicazioni di intelligenza artificiale (AI) e edge computing. L'azienda punta a consolidare la propria posizione in questi settori in espansi...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

Google: Ragionamenti più lunghi non implicano maggior accuratezza nei LLM

Una nuova ricerca di Google mette in discussione l'assunto che catene di ragionamento più lunghe portino a risultati migliori nei modelli linguistici. Lo studio introduce il concetto di Deep Thinking Ratio (DTR) per misurare la qualità del ragionamen...

#LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

Qwen 3.5-35B-A3B: un modello sorprendente per task di sviluppo

Un utente di Reddit riporta risultati eccezionali con Qwen 3.5-35B-A3B, un modello che ha sostituito GPT-OSS-120B nel suo flusso di lavoro quotidiano. L'utente lo impiega per attività di sviluppo, automazione di processi e analisi di codice, evidenzi...

#Hardware #LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

LocalLLaMA: la community sfida il vendor lock-in nell'AI

Un utente di Reddit elogia la community LocalLLaMA per il suo approccio "fai da te" all'intelligenza artificiale, in contrasto con la tendenza del settore verso soluzioni proprietarie e vendor lock-in. L'utilizzo di GPU consumer come le RTX 3090 per ...

#Hardware #LLM On-Premise #DevOps
2026-02-28 Phoronix

AMD prepara miglioramenti IBS per Zen 6 in Linux

AMD sta preparando il terreno per l'integrazione dei suoi processori Zen 6 di prossima generazione nell'ecosistema Linux. Una serie di patch, destinate al sottosistema perf di Linux, sono state accodate per l'inclusione nel kernel Linux 7.1. Queste p...

#Hardware #LLM On-Premise #DevOps
2026-02-28 Phoronix

Verisilicio DC8200: driver Framebuffer Coreboot pronti per Linux 7.1

In arrivo su Linux 7.1 i driver per la GPU Verisilicio DC8200 e il framebuffer Coreboot. La prima pull request a DRM-Misc-Next include nuove funzionalità per i driver grafici/display del kernel, in preparazione per il rilascio del kernel Linux 7.1 pr...

#Hardware #LLM On-Premise #DevOps
2026-02-28 LocalLLaMA

LocalLLaMA: un tuffo nel passato dell'inference LLM locale

Un post su Reddit ricorda i primi tempi di LocalLLaMA, quando far girare modelli di linguaggio localmente era una sfida pionieristica. La discussione evidenzia come la community open source abbia spinto i limiti dell'inference on-premise, aprendo la ...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen 3.5: modelli da 27B e 35B eccellono nel ragionamento logico

I modelli Little Qwen 3.5 da 27B e Qwen 35B-A3B hanno dimostrato notevoli capacità di ragionamento logico in un benchmark specifico. I risultati, ottenuti tramite lineage-bench, evidenziano come modelli di dimensioni relativamente contenute possano g...

#Hardware #LLM On-Premise #DevOps
2026-02-27 LocalLLaMA

Qwen3.5: performance promettenti per carichi di lavoro reali

Un utente ha testato Qwen3.5-35B-A3B-UD-Q6_K_XL su progetti reali, riscontrando risultati positivi. La velocità di generazione dei token è elevata, specialmente su singola GPU. L'esperienza suggerisce un potenziale passaggio a un modello ibrido, con ...

#Hardware #LLM On-Premise #DevOps
2026-02-27 The Next Web

OpenAI punta a scalare l'AI con finanziamento record da 110 miliardi

OpenAI ha annunciato un finanziamento di 110 miliardi di dollari e nuove partnership strategiche per espandere l'accesso all'intelligenza artificiale a consumatori, sviluppatori e aziende. L'iniziativa, denominata "Scaling AI for everyone", mira a co...

#DevOps
2026-02-27 LocalLLaMA

Qwen3.5 27B vs Devstral Small 2: Test su Next.js e Solidity

Un utente ha confrontato le performance di Qwen3.5 27B e Devstral Small 2 in scenari di sviluppo reali, focalizzandosi su Next.js e Solidity. I test, eseguiti su hardware dedicato, hanno valutato correttezza, compatibilità e disciplina del codice, ev...

#Hardware #LLM On-Premise #DevOps
2026-02-27 ArXiv cs.CL

GPT-5: Analisi contestuale e prompt engineering spinto

Un nuovo studio esplora l'uso di LLM, nello specifico GPT-5, per l'analisi del contesto di citazioni testuali. La ricerca si concentra sulla sensibilità dei prompt, variando la loro struttura per valutare come influenzano le interpretazioni del model...

2026-02-27 ArXiv cs.CL

Distillazione di conoscenza semantica per LLM con architettura decoder

Un nuovo framework, Decoder-based Sense Knowledge Distillation (DSKD), integra risorse lessicali strutturate nell'addestramento di modelli linguistici di grandi dimensioni (LLM) con architettura decoder. Questo approccio migliora le consegne senza ri...

#LLM On-Premise #DevOps
2026-02-27 ArXiv cs.LG

IA per rilevare il rischio di ictus tramite sintomi auto-riferiti

Un nuovo sistema di sorveglianza passiva, basato su intelligenza artificiale e grafi, mira a identificare precocemente il rischio di ictus in soggetti ad alto rischio, analizzando i sintomi riportati dai pazienti stessi. L'approccio combina una tasso...

#LLM On-Premise #DevOps
2026-02-27 ArXiv cs.LG

AOT: Reinforcement Learning Avversariale per MLLM più Robusti

Un nuovo studio introduce AOT-SFT, un dataset avversariale su larga scala, e AOT, un framework di self-play per migliorare la robustezza percettiva dei modelli multimodali di linguaggio (MLLM). AOT utilizza un approccio di co-evoluzione tra un attacc...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-27 ArXiv cs.AI

FIRE: Benchmark Completo per l'Intelligenza Finanziaria degli LLM

FIRE è un nuovo benchmark per valutare le capacità degli LLM in ambito finanziario. Include test di conoscenza teorica basati su esami di certificazione e scenari pratici con 3.000 domande. I risultati ottenuti con modelli all'avanguardia, come XuanY...

2026-02-27 The Register AI

Block (ex-Square) licenzia il 40% del personale, punta sull'AI

Block, la società di servizi finanziari guidata da Jack Dorsey, ha annunciato il licenziamento del 40% della sua forza lavoro, circa 4.000 persone. La decisione è motivata dall'implementazione di nuovi strumenti di intelligenza artificiale che, a det...

2026-02-27 Wired AI

Google Nano Banana 2: il nuovo modello AI per l'editing di immagini

Google ha presentato Nano Banana 2, un modello di intelligenza artificiale per la modifica di immagini. Il modello sembra in grado di alterare la realtà delle foto, aprendo nuove possibilità creative, seppur con risultati a volte imprevedibili. Un'an...

#LLM On-Premise #DevOps
2026-02-26 TechCrunch AI

Anthropic: Nessun accesso illimitato al Pentagono per i suoi sistemi AI

Il CEO di Anthropic, Dario Amodei, ha dichiarato di non poter acconsentire alla richiesta del Pentagono di fornire accesso illimitato ai suoi sistemi di intelligenza artificiale. La decisione solleva questioni importanti sull'uso dell'AI in ambito mi...

#LLM On-Premise #DevOps
2026-02-26 The Register AI

I modelli AI faticano ancora con la matematica, ma meno di prima

Secondo l'ORCA test, i modelli linguistici di grandi dimensioni (LLM) attuali, pur migliorando, rimangono prediction engine e non sempre forniscono la soluzione corretta ai problemi matematici. Anche Gemini 3 Flash, tra i più performanti, otterrebbe ...

#LLM On-Premise #DevOps
2026-02-26 Ars Technica AI

Google presenta Nano Banana 2, generazione immagini AI più rapida

Google ha rilasciato Nano Banana 2 (Gemini 3.1 Flash Image), un nuovo modello di generazione di immagini AI che promette prestazioni paragonabili alla versione Pro, ma con la velocità della variante Flash. Il modello vanta una conoscenza del mondo re...

2026-02-26 Microsoft Research

CORPGEN: Agenti AI per il multitasking aziendale

Microsoft presenta CORPGEN, un framework per agenti AI capaci di gestire molteplici attività complesse simultaneamente, simulando scenari lavorativi reali. CORPGEN utilizza pianificazione gerarchica, memorie isolate e apprendimento esperienziale per ...

#LLM On-Premise #DevOps
2026-02-26 TechCrunch AI

Google lancia Nano Banana 2: generazione immagini più rapida

Google ha annunciato Nano Banana 2, una nuova versione del suo modello di intelligenza artificiale focalizzato sulla generazione di immagini. Il modello sarà integrato come opzione predefinita nell'app Gemini e nella modalità AI, promettendo prestazi...

#LLM On-Premise #DevOps
2026-02-26 The Next Web

AI ingannabile? Una narrazione incompleta

Un recente articolo della BBC ha esplorato come gli strumenti di AI generativa possano essere "hackerati" in pochi minuti tramite nuovi contenuti online. L'articolo originale suggerisce che i modelli di AI, come ChatGPT, possono essere influenzati fa...

#LLM On-Premise #DevOps
2026-02-26 Google AI Blog

Nano Banana 2: Generazione immagini alla velocità della luce

Il nuovo modello di generazione immagini Nano Banana 2 promette velocità elevatissime, mantenendo al contempo capacità avanzate e coerenza dei soggetti. L'obiettivo è fornire strumenti di livello professionale accessibili e rapidi.

#Hardware #LLM On-Premise #DevOps
2026-02-26 Google AI Blog

Nano Banana 2: nuovo modello per generazione e modifica immagini

Presentato Nano Banana 2 (Gemini 3.1 Flash Image), un modello avanzato per la generazione e l'editing di immagini. Promette intelligenza e fedeltà di livello professionale per svariate applicazioni nel campo dell'imaging.

#Hardware #Fine-Tuning
2026-02-26 TechCrunch AI

Figma integra Codex di OpenAI per l'assistenza alla programmazione

Figma ha stretto una partnership con OpenAI per integrare Codex, l'assistente alla programmazione basato su intelligenza artificiale. Questa mossa segue un annuncio simile riguardante l'integrazione con Claude Code di Anthropic, segnalando un crescen...

#LLM On-Premise #DevOps
2026-02-26 OpenAI Blog

OpenAI Codex e Figma: integrazione per accelerare lo sviluppo

OpenAI e Figma hanno annunciato una nuova integrazione tra Codex e la piattaforma di design Figma. L'obiettivo è di fluidificare il passaggio tra la fase di ideazione visiva e l'implementazione del codice, permettendo ai team di sviluppare e rilascia...

2026-02-26 The Next Web

ElevenLabs potenzia l'AI vocale con Google Cloud e GPU NVIDIA Blackwell

ElevenLabs, specialista in AI vocale, ha ampliato la partnership strategica con Google Cloud per sfruttare infrastrutture cloud avanzate e le più recenti GPU NVIDIA Blackwell. L'accordo pluriennale mira a scalare la sintesi vocale e i prodotti conver...

#Hardware #LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

LLM locali imparano e memorizzano: un nuovo approccio

Un ricercatore ha sviluppato un sistema per LLM locali che permette di memorizzare informazioni apprese durante le conversazioni, senza ricorrere a RAG o database esterni. Il sistema, basato sulla modifica dei pesi del modello, funziona anche su un M...

#Hardware #Fine-Tuning #RAG
2026-02-26 LocalLLaMA

Qwen3.5-35B-A3B: promettenti sviluppi per i modelli linguistici

La comunità open source segnala progressi significativi con il modello linguistico Qwen3.5-35B-A3B. In particolare, si discute di un framework per il testing semantico di query SQL. Resta alta l'attesa per una versione più piccola, Qwen3.5-4B.

#LLM On-Premise #DevOps
2026-02-26 LocalLLaMA

Qwen3.5-35B-A3B: GGUF ottimizzato per GPU da 24GB

Una nuova quantization GGUF per il modello Qwen3.5-35B-A3B promette prestazioni migliorate su GPU con 24GB di VRAM. L'ottimizzazione si concentra sull'utilizzo di tipi di quantization q8_0/q4_0/q4_1 e punta a una maggiore velocità, specialmente con b...

#Hardware #LLM On-Premise
2026-02-26 ArXiv cs.CL

Allineamento LLM: intervento selettivo per inference efficiente

Un nuovo approccio, Sparse Inference time Alignment (SIA), mira a migliorare l'efficienza dell'allineamento dei modelli linguistici di grandi dimensioni (LLM) durante l'inference. Invece di interventi continui, SIA agisce solo in punti decisionali cr...

#LLM On-Premise #DevOps
2026-02-26 ArXiv cs.CL

QA su disastri naturali: LoRA per efficienza e accuratezza

Un nuovo sistema di question answering focalizzato su scenari di disastri naturali in Giappone utilizza un modello BERT ottimizzato con LoRA. L'architettura raggiunge un'accuratezza del 70.4% nell'individuazione della posizione finale della risposta,...

#Fine-Tuning
2026-02-26 ArXiv cs.LG

ACAR: Routing Adattivo per Ensemble Multi-Modello con Tracciabilità

ACAR è un framework per orchestrare modelli multipli, usando la varianza di auto-consistenza per indirizzare i task a configurazioni con uno, due o tre modelli. Implementato su TEAMLLM, ACAR valuta Claude Sonnet 4, GPT-4o e Gemini 2.0 Flash su benchm...

#LLM On-Premise #DevOps
2026-02-26 ArXiv cs.LG

Compilazione di Contesto Latente: memoria compatta per LLM

Un nuovo framework, Latent Context Compilation, affronta le sfide del deployment di LLM con contesti lunghi. Utilizzando un modulo LoRA usa e getta come compilatore, il sistema distilla contesti estesi in token buffer compatti e portabili, compatibil...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-26 TechCrunch AI

Gushwork punta sulla ricerca AI per i lead: primi risultati

La startup Gushwork ha raccolto 9 milioni di dollari in un round di finanziamento seed guidato da SIG e Lightspeed. L'azienda sta riscontrando un'iniziale trazione da parte dei clienti grazie a strumenti di ricerca basati sull'intelligenza artificial...

2026-02-26 DigiTimes

Infrastrutture AI: Musk accelera mentre Stargate è in fase di stallo

Mentre il progetto Stargate sembra affrontare ritardi, Elon Musk continua a investire massicciamente nell'infrastruttura per l'intelligenza artificiale. Questa mossa evidenzia la crescente importanza di un'infrastruttura robusta per supportare lo svi...

#Hardware #LLM On-Premise #DevOps
2026-02-25 IEEE Spectrum

L'AI supera gli umani nei test di matematica a livello di dottorato

I sistemi di intelligenza artificiale stanno rapidamente migliorando nella risoluzione di problemi matematici complessi, tanto da superare le capacità degli scienziati in alcuni ambiti. Nuovi benchmark sono necessari per valutare le reali capacità de...

2026-02-25 TechCrunch AI

Gemini automatizza task multi-step su Android

Google annuncia che Gemini su Android sarà in grado di automatizzare task complessi che coinvolgono richieste di ridesharing, acquisti di generi alimentari o consegne di cibo. L'integrazione mira a semplificare l'interazione con i servizi tramite com...

#LLM On-Premise #DevOps
2026-02-25 Wired AI

Gemini automatizza Uber e DoorDash su Galaxy S26

L'assistente Gemini di Google sarà in grado di automatizzare task all'interno di app mobile, a partire dal Samsung Galaxy S26. Una demo ha mostrato le nuove funzionalità in azione, semplificando l'interazione con servizi come Uber e DoorDash.

2026-02-25 Google AI Blog

Galaxy S26: Android potenziato dall'AI a bordo

Samsung ha presentato al suo evento Unpacked 2026 le nuove funzionalità AI di Android integrate nei dispositivi Galaxy S26. L'integrazione promette di migliorare l'esperienza utente direttamente sul dispositivo, aprendo nuove prospettive per l'elabor...

#LLM On-Premise #DevOps
2026-02-25 Anthropic News

Anthropic acquisisce Vercept per migliorare le capacità di Claude

Anthropic ha annunciato l'acquisizione di Vercept, mossa strategica per potenziare le capacità di Claude nell'utilizzo del computer. L'integrazione mira a migliorare l'interazione e l'efficacia del modello in scenari applicativi complessi.

#LLM On-Premise #DevOps
2026-02-25 TechCrunch AI

Adobe Firefly: editing video AI-assistito con Quick Cut

Adobe Firefly introduce Quick Cut, una nuova funzionalità che sfrutta l'intelligenza artificiale per creare automaticamente bozze di video a partire da riprese grezze, basandosi sulle istruzioni fornite dall'utente. Un'accelerazione notevole del work...

#LLM On-Premise #DevOps
2026-02-25 ArXiv cs.CL

LLM: Auto-dialoghi per mitigare l'oblio catastrofico

Un nuovo studio introduce SA-SFT, una tecnica di auto-potenziamento per LLM che genera auto-dialoghi prima del fine-tuning. Questo approccio mitiga l'oblio catastrofico, un problema comune quando si adattano i modelli a compiti specifici, preservando...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-25 PyTorch Blog

DeepSpeed: training multimodale e ottimizzazione della memoria

DeepSpeed introduce un'API backward identica a PyTorch per semplificare il training di modelli multimodali complessi, abilitando schemi di parallelismo avanzati. Una nuova opzione per mantenere tutti gli stati del modello in bassa precisione (BF16/FP...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-24 PyTorch Blog

Helion accelera l'autotuning con l'ottimizzazione bayesiana

Helion, il DSL di alto livello per kernel di machine learning ad alte prestazioni, introduce un nuovo algoritmo di ricerca (LFBO Pattern Search) che sfrutta l'ottimizzazione bayesiana per ridurre drasticamente i tempi di autotuning. L'algoritmo, basa...

#Hardware
2026-02-24 LocalLLaMA

Liquid AI presenta LFM2-24B-A2B: modello MoE da 24 miliardi di parametri

Liquid AI ha rilasciato LFM2-24B-A2B, un modello sparse Mixture-of-Experts (MoE) con 24 miliardi di parametri totali, di cui 2 miliardi attivi per token. Progettato per operare con 32GB di RAM, supporta inference tramite llama.cpp, vLLM e SGLang. I r...

#LLM On-Premise #DevOps
2026-02-24 TechCrunch AI

Anthropic punta agli agenti enterprise con plugin specifici

Anthropic intensifica la competizione nel mercato enterprise, offrendo plugin mirati per settori come finanza, ingegneria e design. Questa mossa rappresenta una sfida diretta ai prodotti SaaS esistenti e un'opportunità per Anthropic di espandere la p...

2026-02-24 LocalLLaMA

Nuovi modelli Qwen3.5 avvistati su Qwen Chat

Sono stati individuati nuovi modelli Qwen3.5 sulla piattaforma Qwen Chat. La scoperta è stata segnalata su Reddit, aprendo discussioni nella comunità LocalLLaMA riguardo le implicazioni e le potenziali applicazioni di questi modelli aggiornati.

2026-02-24 LocalLLaMA

Claude Sonnet-4.6 si auto-identifica come DeepSeek-V3

Un utente ha scoperto che Claude Sonnet-4.6, se interrogato in cinese, si identifica erroneamente come il modello DeepSeek-V3. Il fenomeno è stato documentato su X e discusso su Reddit, sollevando interrogativi sull'architettura interna e sui meccani...

#LLM On-Premise #DevOps
2026-02-24 DigiTimes

L'AI generativa impone una revisione dei prezzi SaaS, secondo Appier

L'adozione dell'AI generativa sta spingendo le aziende SaaS a ripensare i modelli di prezzo e la progettazione dei prodotti. Appier evidenzia come i costi computazionali e le esigenze di personalizzazione stiano influenzando le strategie di mercato.

#LLM On-Premise #DevOps
2026-02-24 ArXiv cs.CL

ConfSpec: Ragionamento Speculativo Efficiente per LLM

ConfSpec è un framework che accelera l'inference dei modelli linguistici di grandi dimensioni (LLM) tramite verifica speculativa a livello di singolo passo. Sfrutta modelli di verifica più piccoli e calibrati per ridurre la latenza, mantenendo l'accu...

#Hardware #LLM On-Premise #DevOps
2026-02-24 ArXiv cs.CL

ReportLogic: Valutazione della qualità logica nei report di ricerca LLM

ReportLogic è un nuovo benchmark per valutare la qualità logica dei report generati da LLM. Si concentra sulla capacità di verificare affermazioni e argomentazioni, colmando una lacuna negli attuali framework di valutazione che spesso trascurano l'au...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-24 ArXiv cs.LG

PBPK: Deep Learning per modelli farmacocinetici multi-scala

Un nuovo framework di Scientific Machine Learning (SciML) promette di migliorare la modellazione farmacocinetica PBPK, cruciale nello sviluppo di farmaci. L'approccio combina rigore meccanicistico e flessibilità data-driven, riducendo i costi computa...

#Fine-Tuning
2026-02-23 LocalLLaMA

GLM-5 supera Kimi K2.5 nel benchmark NYT Connections

Il modello GLM-5 ha raggiunto un nuovo primato nel benchmark Extended NYT Connections, superando Kimi K2.5 Thinking. Questo risultato evidenzia i progressi nel campo dei modelli linguistici open-source e la loro capacità di risolvere compiti compless...

#LLM On-Premise #DevOps
2026-02-23 TechCrunch AI

Anthropic accusa laboratori cinesi di "mining" di Claude

Anthropic ha accusato DeepSeek, Moonshot e MiniMax di aver utilizzato 24.000 account falsi per estrarre capacità dal suo modello Claude. La notizia giunge mentre negli Stati Uniti si discute di nuove restrizioni all'export di chip verso la Cina, volt...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-23 LocalLLaMA

Anthropic accusa laboratori cinesi di pratiche scorrette

Un post su Reddit solleva dubbi su presunte pratiche scorrette attribuite a laboratori cinesi nel contesto dello sviluppo di modelli linguistici di grandi dimensioni (LLM). Anthropic sembra suggerire comportamenti non etici, scatenando un dibattito n...

2026-02-23 TechCrunch AI

Guide Labs presenta un LLM interpretabile da 8 miliardi di parametri

Guide Labs ha rilasciato Steerling-8B, un modello linguistico di grandi dimensioni (LLM) open-source con 8 miliardi di parametri. La sua architettura è progettata per migliorare l'interpretabilità delle sue azioni, facilitando la comprensione del pro...

2026-02-23 Phoronix

Firefox 148 introduce controlli AI e "kill switch"

La nuova versione di Firefox 148 introduce controlli specifici per la gestione delle funzionalità di intelligenza artificiale integrate nel browser. Gli utenti avranno la possibilità di disabilitare completamente queste funzionalità.

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Benchmark di 17 LLM locali: focus sul tool calling

Un recente studio ha messo a confronto 17 modelli linguistici di grandi dimensioni (LLM) eseguiti localmente, valutandone le capacità di "tool calling" in scenari reali. La ricerca evidenzia come l'approccio "agentic loop", in cui il modello riceve f...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-23 LocalLLaMA

Framework open-source per LLM locali: performance Gemini 3/GPT-5.2

Un nuovo framework open-source mira a colmare il divario prestazionale tra i modelli linguistici di grandi dimensioni (LLM) proprietari e le alternative eseguite localmente. L'obiettivo è raggiungere livelli di performance paragonabili a Gemini 3 Dee...

#LLM On-Premise #DevOps
2026-02-23 LocalLLaMA

Wave Field LLM: modello a 1 miliardo di parametri scalabile

Il modello Wave Field LLM (v4) ha raggiunto la scala di 1 miliardo di parametri. L'addestramento, durato 13.2 ore su 1.33 miliardi di token, ha dimostrato la stabilità e la convergenza del modello, validando il meccanismo di interazione field-based. ...

#Fine-Tuning
2026-02-23 LocalLLaMA

Agenti LLM locali: GPT-OSS 20B alla prova su macOS

Un utente ha sperimentato con successo l'agente Zeroclaw, basato su un modello GPT-OSS 20B eseguito localmente, per interagire con applicazioni macOS, pagine web e file locali. L'utente sottolinea i limiti del modello, come la perdita di focus dopo u...

#LLM On-Premise #DevOps
2026-02-22 LocalLLaMA

NanoLLama: addestramento Llama 3 da zero e export in GGUF

È stato rilasciato NanoLLama, un framework open source per l'addestramento di modelli Llama 3 partendo da zero, senza fine-tuning o LoRA. Il tool permette l'export in formato GGUF compatibile con llama.cpp tramite un singolo comando. Include configur...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-22 LocalLLaMA

Qwen conferma problemi di qualità nei dataset GPQA e HLE

Il team di Qwen ha verificato seri problemi di qualità dei dati nei set di test GPQA e HLE (Humanity's Last Exam). Un'analisi approfondita ha rivelato che molte risposte considerate "gold standard" erano errate, compromettendo l'affidabilità dei benc...

#Fine-Tuning
2026-02-22 LocalLLaMA

FlashLM v5: modello linguistico addestrato su CPU supera la baseline GPU

FlashLM v5, un modello linguistico con 29.7 milioni di parametri, è stato addestrato su una CPU AMD Ryzen 7950X3D in circa 40 ore. Il modello ha raggiunto una perplexity di 1.36, superando la baseline TinyStories-1M (PPL 1.59). L'architettura Parall...

#Hardware #LLM On-Premise #DevOps
2026-02-22 LocalLLaMA

LLM in locale: casi d'uso di nicchia spuntano online

Una discussione online rivela utilizzi inattesi per i modelli linguistici di grandi dimensioni eseguiti in locale. Dalla generazione di prompt specifici all'analisi di dati sensibili, gli utenti esplorano le potenzialità degli LLM on-premise per appl...

#Hardware #LLM On-Premise #DevOps
2026-02-21 LocalLLaMA

Wave Field LLM: attenzione O(n log n) tramite equazioni d'onda

Un nuovo meccanismo di attenzione per LLM, Wave Field LLM, utilizza equazioni d'onda per scalare a O(n log n). Il modello mappa i token su un campo continuo 1D e propaga le informazioni tramite equazioni d'onda smorzate. I risultati iniziali su WikiT...

2026-02-21 LocalLLaMA

Qwen Code: agente di sviluppo open source con fork senza telemetria

Qwen Code è un agente di sviluppo CLI open source creato dal team Qwen di Alibaba. Permette di automatizzare attività di sviluppo interagendo direttamente con il codice. È disponibile una versione modificata che rimuove la telemetria, garantendo magg...

#LLM On-Premise #DevOps
2026-02-21 TechCrunch AI

Google avverte: alcune startup AI potrebbero non sopravvivere

Un vicepresidente di Google prevede difficoltà per le startup AI che si concentrano esclusivamente su 'wrapper' di LLM o sull'aggregazione di servizi AI. Margini ridotti e scarsa differenziazione mettono a rischio la loro sostenibilità a lungo termin...

#LLM On-Premise #DevOps
2026-02-21 LocalLLaMA

Ouro-2.6B-Thinking: inference funzionante per il modello di ByteDance

Risolti i problemi di inference con Ouro-2.6B-Thinking di ByteDance, un modello Universal Transformer ricorrente. La correzione riguarda incompatibilità con Transformers 4.55. Le consegne ora producono risultati validi. Testato su NVIDIA L4 con prest...

#Hardware
2026-02-21 LocalLLaMA

GLM-4.7: Modello Distillato per Ragionamento Avanzato in Locale

È disponibile su Hugging Face un modello distillato, denominato GLM-4.7, progettato per offrire capacità di ragionamento avanzate. Questa versione, menzionata da Unsloth, mira a fornire prestazioni elevate in contesti di utilizzo locale. Il modello è...

#Hardware #LLM On-Premise #DevOps
2026-02-21 LocalLLaMA

GLM-5: Personalità "Claude" e Censura Bypassata?

Un utente ha scoperto che GLM-5, un modello linguistico di grandi dimensioni, cambia significativamente il suo comportamento quando gli viene detto di essere Claude di Anthropic. Questo cambio di personalità sembra anche aggirare alcune censure integ...

#LLM On-Premise #DevOps
2026-02-21 DigiTimes

OpenAI: ricavi previsti a 280 miliardi di dollari entro il 2030

Secondo le stime, OpenAI prevede di raggiungere un fatturato di 280 miliardi di dollari entro il 2030. L'azienda pianifica investimenti per 600 miliardi di dollari. Queste cifre evidenziano le ambizioni di crescita nel mercato dell'intelligenza artif...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Nuova versione in arrivo per Gemma, l'LLM di Google

Google ha annunciato l'imminente rilascio di una nuova versione di Gemma, il suo modello linguistico di grandi dimensioni (LLM). La notizia è emersa da un post su Reddit, segnalato dalla comunità LocalLLaMA, che rimanda a un video su YouTube.

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Modelli cinesi dominano OpenRouter: superati i 3 trilioni di token

La piattaforma OpenRouter registra un'impennata nell'utilizzo di modelli di linguaggio di origine cinese. Per la prima volta, un modello supera i 3 trilioni di token elaborati in una settimana, e più modelli superano il trilione, segnando un cambio d...

#LLM On-Premise #DevOps
2026-02-20 TechCrunch AI

Peak XV investe 1,3 miliardi di dollari, punta forte sull'AI in India

Peak XV Partners ha annunciato un nuovo fondo da 1,3 miliardi di dollari, destinato principalmente al mercato indiano. L'azienda intende concentrarsi su investimenti nei settori dell'intelligenza artificiale, fintech e iniziative transfrontaliere, in...

#LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Hugging Face acquisisce GGML.AI, focalizzata su inference LLM efficiente

Hugging Face ha acquisito GGML.AI, nota per il suo lavoro sull'inference efficiente di modelli linguistici di grandi dimensioni (LLM). L'acquisizione, discussa su Reddit e GitHub, potrebbe portare a una maggiore integrazione delle tecnicie di GGML ne...

#Hardware #LLM On-Premise #DevOps
2026-02-20 LocalLLaMA

Deepseek e Gemma: confronto nella community LocalLLaMA

Un post su Reddit, nella comunità LocalLLaMA, mette a confronto i modelli Deepseek e Gemma. La discussione verte sulle caratteristiche e le performance di questi modelli, con un focus sull'utilizzo in contesti locali. L'articolo originale include un'...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

GLM-5 in Arrivo: Indizi nel codice di vLLM

Indiscrezioni sul prossimo modello linguistico GLM-5 emergono da una pull request relativa a vLLM, un framework per l'inference di LLM. La notizia, diffusa inizialmente su Reddit, suggerisce che il nuovo modello potrebbe presto essere integrato e dis...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

OpenClaw e Cowork competono per agenti AI desktop in Cina

Le aziende cinesi OpenClaw e Cowork stanno sviluppando agenti AI desktop, segnalando una crescente competizione nel settore dell'intelligenza artificiale per applicazioni locali. Questa tendenza riflette un interesse per soluzioni AI che possono oper...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

Errori di Temporizzazione nell'Inference di LLM: Un'Analisi

Un post su Reddit mette in luce come errori di temporizzazione possano compromettere l'inference di modelli linguistici di grandi dimensioni (LLM). L'immagine allegata suggerisce una problematica legata alla sincronizzazione o alla gestione dei tempi...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

Crescita di CHPT trainata dal Nord America: focus sui guadagni trimestrali

Secondo Digitimes, la crescita di CHPT nel 2026 sarà guidata principalmente dalla domanda proveniente dal Nord America. L'azienda punta a migliorare i risultati trimestrali, concentrandosi sull'espansione del mercato e sull'ottimizzazione delle opera...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

MediaTek punta sui 2nm di TSMC e sull'AI computing

MediaTek si prepara ad adottare i processi a 2nm e A14 di TSMC, con un focus sull'incremento della potenza di calcolo per l'intelligenza artificiale. Questa mossa strategica mira a posizionare MediaTek come leader nel settore dei chip ad alte prestaz...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-09 DigiTimes

LG CNS adotta NPU FuriosaAI per servizi AI enterprise in Corea

LG CNS collabora con FuriosaAI per integrare le NPU (Neural Processing Unit) di quest'ultima nei propri servizi di intelligenza artificiale enterprise. Questa partnership mira a sfruttare l'hardware AI sviluppato in Corea del Sud per migliorare le pr...

#Hardware #LLM On-Premise #DevOps
2026-02-09 ArXiv cs.CL

Decodifica contrastiva multi-contesto per il Visual Question Answering

Un nuovo metodo di decodifica, RMCD, migliora i Large Vision Language Models (LVLM) integrando contesti multipli da knowledge base esterne. RMCD pesa i contesti in base alla loro rilevanza, aggregando informazioni utili ed attenuando gli effetti nega...

#Fine-Tuning #RAG
2026-02-09 ArXiv cs.CL

Nuovi slogan pubblicitari? L'AI riscrive citazioni famose

La creazione di slogan pubblicitari efficaci è cruciale, ma la ripetitività ne riduce l'impatto. Un nuovo studio esplora l'uso di modelli linguistici di grandi dimensioni (LLM) per rielaborare citazioni famose, bilanciando novità e familiarità. L'obi...

2026-02-09 ArXiv cs.LG

EVE: un framework per risposte complete e affidabili da LLM

Un nuovo framework, EVE, affronta i limiti degli LLM nel fornire risposte complete e fedeli basate su un singolo documento. EVE utilizza un approccio strutturato che migliora significativamente il richiamo, la precisione e l'F1-score, superando il co...

2026-02-09 ArXiv cs.AI

Jackpot: campionamento efficiente per RL e LLM

Ricercatori propongono Jackpot, un framework per il reinforcement learning (RL) con LLM. Jackpot utilizza un campionamento di reiezione con budget ottimale (OBRS) per ridurre la discrepanza tra il modello di rollout e la policy in evoluzione, miglior...

2026-02-09 LocalLLaMA

Un milione di file Epstein in formato testo per analisi locale

Rilasciato un dataset di un milione di file relativi al caso Epstein, convertiti in formato testo tramite OCR. I file, compressi in 12 archivi ZIP per un totale di meno di 2GB, sono pensati per l'analisi tramite LLM in locale. Previsto miglioramento ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-09 The Register AI

Hyderabad: proposta di carta d'identità per agenti AI

Il commissario di polizia della città indiana di Hyderabad ha proposto di rilasciare carte d'identità, o equivalenti digitali, per gli agenti di intelligenza artificiale. La proposta mira a regolamentare e tracciare le attività degli agenti AI nella ...

#LLM On-Premise #DevOps
2026-02-09 LocalLLaMA

WokeAI rilascia tre nuovi modelli LLM 'Tankie' open source

Il gruppo WokeAI ha annunciato il rilascio di tre nuovi modelli linguistici di grandi dimensioni (LLM) open source, denominati 'Tankie', progettati per l'analisi ideologica e la critica delle strutture di potere. I modelli sono disponibili su Hugging...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-09 LocalLLaMA

StepFun: in arrivo Step-3.5-Flash-Base e novità per il capodanno cinese

Il team di StepFun AI ha annunciato l'imminente rilascio di Step-3.5-Flash-Base e anticipa ulteriori sorprese in occasione del capodanno cinese. Sono in corso discussioni con NVIDIA sull'utilizzo di NVFP4 e ottimizzazioni per la gestione dei token.

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

Tower Semiconductor e Nvidia: moduli ottici 1.6T per data center AI

Tower Semiconductor e Nvidia collaborano per sviluppare moduli ottici da 1.6T destinati a migliorare le prestazioni delle reti nei data center AI. Questa tecnicia promette di accelerare significativamente il trasferimento dati, cruciale per le applic...

#Hardware #LLM On-Premise #DevOps
2026-02-09 DigiTimes

Investimenti AI minacciano i flussi di cassa delle Big Tech

L'accelerazione degli investimenti nel settore dell'intelligenza artificiale sta mettendo sotto pressione i flussi di cassa delle principali aziende tecniciche. La necessità di sostenere la crescente domanda di risorse computazionali per l'addestrame...

#Hardware
2026-02-09 LocalLLaMA

Alternative a Open WebUI con UX migliorata: la sfida dell'usabilità

Un utente segnala difficoltà di configurazione e usabilità con Open WebUI, in particolare nella gestione dei tool. La discussione si concentra sulla ricerca di alternative che offrano un'esperienza utente più intuitiva e meno complessa per l'interazi...

#LLM On-Premise #DevOps
2026-02-09 DigiTimes

Wistron: crescita dell'IA non ancora in fase di bolla

Il presidente di Wistron, Simon Lin, ritiene che la crescita dell'intelligenza artificiale sia in una fase iniziale e che i timori di una bolla speculativa siano prematuri. L'azienda prevede un'ulteriore espansione nel settore, con un focus sull'inno...

2026-02-09 LocalLLaMA

Supporto a Qwen3.5 integrato in llama.cpp

L'integrazione del supporto per il modello linguistico Qwen3.5 in llama.cpp è stata completata. Questa aggiunta permette di eseguire e sperimentare con Qwen3.5 direttamente su hardware locale, aprendo nuove possibilità per sviluppatori e ricercatori ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

MiniMax M2.2 in Arrivo: Indizi nel Codice

Indiscrezioni sul modello linguistico MiniMax M2.2 emergono dall'analisi del codice del sito web. La scoperta, segnalata su Reddit, suggerisce un imminente rilascio del modello. Ulteriori dettagli sulle capacità e sulle specifiche tecniche restano al...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Taiwan: ordini CSP e spazio trainano la filiera nel 2026

La filiera tecnicica di Taiwan prevede un inizio 2026 positivo, grazie alla domanda da parte dei fornitori di servizi cloud (CSP) e alla crescita del settore aerospaziale. Questi fattori compensano le incertezze economiche globali, sostenendo la prod...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Budget indiano punta su AI e semiconduttori: le implicazioni

Il budget annuale dell'India prevede un forte impulso all'ecosistema dell'intelligenza artificiale e dei semiconduttori. L'iniziativa mira a posizionare l'India come hub tecnicico globale, con investimenti mirati in ricerca e sviluppo, infrastrutture...

#LLM On-Premise #DevOps
2026-02-08 DigiTimes

Boom dell'AI spinge la crescita di Taiwan ai massimi da 15 anni

La crescita economica di Taiwan accelera grazie alla forte domanda nel settore dell'intelligenza artificiale, superando i timori di delocalizzazione. L'aumento della domanda di semiconduttori ad alte prestazioni, essenziali per i carichi di lavoro AI...

#Fine-Tuning
2026-02-08 Phoronix

Linux 6.19: supporto migliorato per GPU AMD datate e pipeline colore DRM

Linus Torvalds ha annunciato il rilascio del kernel Linux 6.19, la prima release importante del 2026. Questa versione include miglioramenti per le GPU AMD più datate e una nuova API per la pipeline colore DRM. L'aggiornamento promette di ottimizzare ...

#Hardware #LLM On-Premise
2026-02-08 LocalLLaMA

Visualizzazione interattiva di modelli LLM in formato GGUF

Un appassionato ha sviluppato uno strumento per visualizzare l'architettura interna dei modelli linguistici di grandi dimensioni (LLM) salvati in formato .gguf. L'obiettivo è rendere più trasparente la struttura di questi modelli, tradizionalmente co...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Cluster AMD Strix Halo: Inference LLM Distribuita con RDMA RoCE v2

Un cluster a due nodi basato su AMD Strix Halo, interconnesso tramite Intel E810 (RoCE v2), è stato realizzato per l'inference distribuita di LLM utilizzando Tensor Parallelism. I benchmark e la guida alla configurazione sono disponibili online, apre...

#Hardware #LLM On-Premise #DevOps
2026-02-08 TechCrunch AI

Crypto.com investe 70 milioni di dollari nel dominio AI.com

La piattaforma di scambio di criptovalute Crypto.com ha acquisito il dominio AI.com per 70 milioni di dollari. L'operazione stabilisce un nuovo record per l'acquisto di un dominio, evidenziando l'interesse del settore crypto verso l'intelligenza arti...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Benchmark di LLM: Qwen MoE supera LLaMA-70B in neuroscienze

Un nuovo benchmark nel campo delle neuroscienze e delle interfacce cervello-computer (BCI) rivela che il modello Qwen3 235B MoE supera le prestazioni di LLaMA-3.3 70B. I risultati evidenziano un limite di accuratezza condiviso tra diversi modelli, su...

#LLM On-Premise #DevOps
2026-02-08 TechCrunch AI

Progetto AI 'Magnificent Ambersons': Reazioni contrastanti

Un progetto di intelligenza artificiale denominato 'Magnificent Ambersons' suscita reazioni contrastanti. Nonostante alcune preoccupazioni iniziali, l'iniziativa sembra aver mitigato parte dello scetticismo, pur rimanendo oggetto di dibattito.

2026-02-08 Phoronix

Intel abbandona diversi progetti open source: cosa succede?

Intel ha recentemente archiviato o interrotto una ventina di progetti open source precedentemente mantenuti. La decisione segue l'archiviazione del progetto "SDSi" On Demand, sollevando interrogativi sulla strategia open source del gigante dei chip.

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Ottimizzazioni in corso per llama.cpp

Un utente ha segnalato su Reddit un'attività in corso su GitHub relativa a miglioramenti per llama.cpp, un framework per l'inference di modelli linguistici di grandi dimensioni. I dettagli specifici dei miglioramenti non sono forniti, ma l'attività s...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

StepFun 3.5 Flash vs MiniMax 2.1: confronto su Ryzen

Un utente confronta le performance di StepFun 3.5 Flash e MiniMax 2.1, due modelli linguistici di grandi dimensioni (LLM), su una piattaforma AMD Ryzen. L'analisi si concentra sulla velocità di elaborazione e sull'utilizzo della VRAM, evidenziando i ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

LLM non censurato genera risposte inattese

Un utente di un modello linguistico di grandi dimensioni (LLM) non censurato ha condiviso un'esperienza curiosa. Prima di fornire istruzioni specifiche, l'utente ha chiesto al modello cosa volesse fare, ottenendo una risposta inaspettatamente innocen...

#LLM On-Premise #DevOps
2026-02-08 Tom's Hardware

Nvidia nega l'uso di libri piratati per addestrare i suoi modelli AI

Nvidia contesta le accuse di aver utilizzato materiale protetto da copyright, nello specifico libri provenienti da Anna's Archive, per l'addestramento dei suoi modelli di intelligenza artificiale. L'azienda ha chiesto il rigetto della causa intentata...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Verity: motore di ricerca AI locale stile Perplexity per PC AI

Verity è un motore di ricerca e risposta AI che funziona interamente in locale su PC dotati di AI, sfruttando CPU, GPU e NPU. Ottimizzato per PC AI Intel con OpenVINO e Ollama, offre ricerca self-hosted tramite SearXNG e risposte basate su fatti.

#Hardware #LLM On-Premise #DevOps
2026-02-08 Tom's Hardware

Un Mac Retro con Stampante Termica e 'Cervello' da Mac Mini

Un appassionato ha modificato un vecchio Apple Mac integrando una stampante termica al posto del floppy disk drive. La macchina beneficia anche di un trapianto di 'cervello' grazie all'aggiunta di un Mac Mini.

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Tandem: workspace AI open-source e locale con Rust e SQLite

Uno sviluppatore ha creato Tandem, un ambiente di lavoro AI che gira interamente in locale, senza inviare dati al cloud. La soluzione utilizza Rust, Tauri e sqlite-vec, offrendo un'alternativa leggera alle applicazioni Python/Electron. Supporta model...

#LLM On-Premise #DevOps #RAG
2026-02-08 Phoronix

Intel QATlib 26.02: nuove API per DMA zero-copy

Intel ha rilasciato QATlib 26.02, l'ultima versione della sua libreria user-space per sfruttare la tecnicia QuickAssist (QAT) su hardware compatibile. Questa release introduce nuove API per DMA zero-copy, migliorando le prestazioni di compressione e ...

#Hardware #LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Critiche al marketing di Anthropic: solo allarmismo sull'open source?

Un post su Reddit critica aspramente le strategie di marketing di Anthropic, accusandola di focalizzarsi eccessivamente sulla denigrazione dell'open source e sulla diffusione di timori infondati riguardo ai rischi dell'intelligenza artificiale. L'art...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

LLM locali: sviluppare e ricerca le applicazioni più comuni

Un utente di LLM locali condivide la propria esperienza nell'utilizzo di questi modelli per attività di sviluppo e ricerca, sollecitando la community a condividere ulteriori applicazioni e casi d'uso. La discussione si concentra sui vantaggi dell'ese...

#LLM On-Premise #DevOps
2026-02-08 LocalLLaMA

Llama.cpp: "--fit" accelera Qwen3-Coder-Next su RTX 3090

Un utente ha riscontrato miglioramenti significativi nelle prestazioni di Qwen3-Coder-Next utilizzando l'opzione "--fit" in Llama.cpp su una configurazione dual RTX 3090. I risultati indicano un potenziale incremento di velocità rispetto all'opzione ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Musk: la velocità, non l'ambizione, guiderà la prossima fase dell'IA

Secondo Elon Musk, la velocità di esecuzione, più che l'ambizione pura, sarà il fattore determinante nella prossima fase di espansione dell'intelligenza artificiale. L'articolo, basato su fonti AFP, non fornisce dettagli specifici su modelli, hardwar...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Nvidia e Dassault Systèmes: AI per il mondo fisico

Nvidia e Dassault Systèmes intensificano la loro collaborazione per integrare l'intelligenza artificiale nel mondo della progettazione e simulazione fisica. L'obiettivo è migliorare i processi di sviluppo prodotto e accelerare l'innovazione in divers...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Tormente di neve in Giappone minacciano la fornitura di chip AI

Le intense tempeste di neve in Giappone mettono a rischio le catene di approvvigionamento dei chip per l'intelligenza artificiale. La situazione potrebbe impattare la produzione e la distribuzione di componenti essenziali per il settore.

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Robotica e AI: la supply chain si riorganizza

L'integrazione dell'intelligenza artificiale nella robotica sta portando a una riorganizzazione della supply chain. I fornitori di robotica ampliano le loro competenze per includere capacità di AI, mentre le aziende tech cercano di posizionarsi in qu...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt di Sistema Completo per Claude Opus 4.6

Un utente ha condiviso su Reddit un prompt di sistema completo per Claude Opus 4.6, il modello di Anthropic. Il prompt è disponibile su GitHub e offre uno sguardo approfondito sulla configurazione interna del modello.

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DeepSeek V3.2: risultati AIME 2026 superiori al 90% con costi minimi

I risultati del benchmark AIME 2026 mostrano performance elevate, superiori al 90%, sia per modelli chiusi che open source. In particolare, DeepSeek V3.2 si distingue per un costo di esecuzione dell'intero test di soli 0,09 dollari, aprendo nuove pro...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt injection: vulnerabilità critica per LLM self-hosted

Un utente segnala una grave vulnerabilità di prompt injection in un sistema LLM self-hosted. Durante i test, un prompt malevolo ha esposto l'intero prompt di sistema, evidenziando la mancanza di difese adeguate contro questo tipo di attacco. Le tradi...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Chicony Power punta su AI e piattaforme low-carbon, oltre i PC

Chicony Power diversifica il suo business, puntando su soluzioni per l'intelligenza artificiale e piattaforme a basse emissioni di carbonio. L'azienda mira a espandere il proprio raggio d'azione oltre il tradizionale mercato dei PC, intercettando nuo...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt di sistema di Gemini Pro estratto da un utente

Un utente Reddit ha estratto il prompt di sistema utilizzato da Google per Gemini Pro, dopo la rimozione dell'opzione "PRO" per gli abbonati a pagamento, principalmente in Europa, a seguito di A/B testing. Il prompt è stato condiviso sulla piattaform...

#LLM On-Premise #DevOps
2026-02-07 TechCrunch AI

New York valuta moratoria di tre anni sui nuovi data center

Lo stato di New York sta considerando una moratoria di tre anni sulla costruzione di nuovi data center. New York è almeno il sesto stato a valutare una simile misura, sebbene le prospettive del disegno di legge rimangano incerte.

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Benchmark LLM: tempo totale di attesa vs. token al secondo

Un utente di LocalLLaMA ha sviluppato un metodo di benchmarking alternativo per valutare le prestazioni reali dei modelli linguistici di grandi dimensioni (LLM) in locale. Invece di concentrarsi sui token generati al secondo, il benchmark misura il t...

#Hardware #LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Intel Arc A380: XeSS 3 aumenta le prestazioni in Cyberpunk 2077

La GPU Intel Arc A380, potenziata dalla tecnicia XeSS 3 e con 6GB di VRAM, raggiunge i 140 FPS a 1080p con impostazioni grafiche basse in Cyberpunk 2077. Un significativo miglioramento prestazionale ottenuto tramite ottimizzazione software.

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Apple M5 Max e Ultra in arrivo? Indiscrezioni sul nuovo hardware

Indiscrezioni suggeriscono l'imminente rilascio dei chip M5 Max e, potenzialmente, M5 Ultra di Apple. I nuovi chip potrebbero essere rilasciati contestualmente all'aggiornamento del sistema operativo macOS 26.3. Resta da vedere se Apple opterà per un...

#Hardware
2026-02-07 LocalLLaMA

Monitoraggio LLM on-premise con Grafana, Prometheus e DCGM

Un utente ha implementato un sistema di monitoraggio completo per il proprio server LLM domestico, utilizzando Grafana, Prometheus e DCGM per tenere traccia di parametri come l'utilizzo della GPU, il consumo energetico e le velocità di elaborazione d...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DoomsdayOS: LLM locale su chiavetta USB per Thinkpad

Un utente ha dimostrato DoomsdayOS, un sistema operativo all-in-one avviabile da USB, su un Thinkpad T14s. Include LLM, Wikipedia e runtime, pensato per operare in scenari offline o di emergenza. Il codice sorgente è disponibile su GitHub.

#LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Intel Arrow Lake Refresh: verdetto il 23 marzo?

Indiscrezioni suggeriscono che Intel potrebbe annunciare la serie Arrow Lake Refresh il 23 marzo. L'assenza del Core Ultra 9 290K Plus dai listini di un rivenditore statunitense alimenta voci di cancellazione. La serie Core Ultra 200S è al centro del...

#Hardware
2026-02-07 Tom's Hardware

MSI RTX 5090 Lightning: prestazioni da record a un prezzo elevato

MSI lancia la RTX 5090 Lightning, una GPU in edizione limitata progettata per superare ogni record di performance. Questa scheda video di fascia altissima si posiziona come una soluzione estrema per appassionati e professionisti, ma il prezzo la rend...

#Hardware #LLM On-Premise #DevOps
2026-02-07 The Register AI

Vishal Sikka: non fidarsi mai di un LLM che opera isolato

L'esperto di AI Vishal Sikka mette in guardia sui limiti degli LLM operanti in solitaria. Secondo Sikka, queste architetture sono vincolate dalle risorse computazionali e tendono a generare allucinazioni quando spinte al limite. La soluzione proposta...

#LLM On-Premise #DevOps
2026-02-07 Phoronix

NetBSD 11.0-RC1 disponibile per test con emulazione Linux migliorata

La prima release candidate di NetBSD 11.0 è ora disponibile per i test. Questa versione include miglioramenti significativi all'emulazione Linux, rendendola un'opzione interessante per chi cerca un sistema operativo versatile e affidabile.

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

DeepSeek-V2-Lite: performance su hardware modesto con OpenVINO

Un utente ha confrontato DeepSeek-V2-Lite e GPT-OSS-20B su un laptop del 2018 con grafica integrata, usando OpenVINO. DeepSeek-V2-Lite ha mostrato velocità quasi doppie e risposte più coerenti rispetto a GPT-OSS-20B, sebbene con alcune imprecisioni l...

#Hardware
2026-02-07 LocalLLaMA

Qwen e ByteDance testano nuovi modelli seed sull'Arena

Modelli potenziali di Qwen e ByteDance sono in fase di test sull'Arena. I modelli "Karp-001" e "Karp-002" si presentano come varianti di Qwen-3.5. Parallelamente, i modelli "Pisces-llm-0206a" e "Pisces-llm-0206b" sono identificati come modelli di Byt...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Minimax m2.1: un modello LLM promettente per la ricerca locale

Un utente condivide la propria esperienza positiva con il modello linguistico Minimax m2.1, in particolare la versione quantizzata a 4-bit DWQ MLX. Evidenzia le sue capacità di ragionamento conciso, velocità e competenza nella generazione di codice, ...

#LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Paesi Bassi: server VPN sequestrato senza mandato?

Secondo quanto riportato, le autorità olandesi avrebbero sequestrato un server VPN senza un mandato. L'azienda coinvolta afferma che le forze dell'ordine restituiranno il dispositivo dopo averlo analizzato completamente. L'episodio solleva interrogat...

#LLM On-Premise #DevOps
2026-02-07 Wired AI

Olimpiadi Invernali 2026: nuove tecnicie immersive in arrivo

Le Olimpiadi Invernali di Milano-Cortina 2026 promettono un'esperienza visiva rivoluzionaria. Droni con visualizzazione in prima persona, replay a 360 gradi in tempo reale e un sistema Olympics GPT trasformeranno il modo in cui gli spettatori vivrann...

2026-02-07 Tom's Hardware

SanDisk Optimus SSD PCIe 5.0: nuovi modelli da 2TB e 4TB

SanDisk ha rilanciato la sua linea di SSD Optimus con modelli PCIe 5.0 da 2TB e 4TB. I nuovi Optimus GX Pro 8100 sono disponibili a partire da 999 dollari per il modello da 2TB e 1799 dollari per quello da 4TB, con un incremento di prezzo del 5% risp...

#Hardware #LLM On-Premise
2026-02-07 LocalLLaMA

Google Gemini: aumentano i costi, cala la qualità?

Un utente segnala un aumento dei costi e un calo della precisione con i modelli Gemini di Google per attività di estrazione dati e OCR. La rimozione delle opzioni più economiche e la mancanza di miglioramenti nelle versioni più recenti sollevano preo...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-07 Phoronix

Miglioramento driver video Linux: meccanismo di ripristino KMS

Un ingegnere di Microsoft sta sviluppando un meccanismo di ripristino KMS per i driver video Linux. L'obiettivo è migliorare la stabilità del sistema grafico, permettendo ai driver di recuperare automaticamente in caso di errori. Il lavoro è guidato ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 Tom's Hardware

Ritardo per i chip Intel Panther Lake: arrivo previsto nel Q2 2026

Secondo indiscrezioni, i chip Intel Panther Lake per dispositivi portatili subiranno un ritardo e non saranno disponibili prima del secondo trimestre del 2026. La presunta serie 'Core G3' potrebbe essere lanciata insieme alle nuove iGPU Arc B360 e Ar...

#Hardware
2026-02-07 DigiTimes

Agenti AI non sostituiranno il software enterprise, secondo gli esperti

Affermazioni audaci sulla sostituzione del software enterprise con agenti AI vengono ridimensionate dagli esperti. L'articolo analizza le sfide e i limiti attuali degli agenti AI nel contesto aziendale, sottolineando che la loro adozione su vasta sca...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Dassault Systèmes punta sull'AI per l'industria del futuro

Dassault Systèmes presenta la sua visione di 'economia generativa', basata sull'intelligenza artificiale, per trasformare il settore industriale. L'azienda punta a integrare l'AI in tutti i suoi processi, dalla progettazione alla produzione, per migl...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Kimi-Linear-48B-A3B e Step3.5-Flash disponibili per llama.cpp

Sono state rilasciate le versioni di Kimi-Linear-48B-A3B e Step3.5-Flash compatibili con llama.cpp. Al momento non sono ancora disponibili i file GGUF ufficiali, ma la community sta già lavorando alla loro creazione. La disponibilità di questi modell...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Kernel open-source per attention: 1 milione di token in 1GB di VRAM

Geodesic Attention Engine (GAE) è un kernel open-source che promette di ridurre drasticamente il consumo di memoria per modelli di linguaggio di grandi dimensioni. Con GAE, è possibile gestire 1 milione di token con solo 1GB di VRAM, ottenendo un ris...

#Hardware #LLM On-Premise #DevOps
2026-02-07 TechCrunch AI

Benchmark investe 225 milioni di dollari in Cerebras

La società di venture capital Benchmark Capital ha annunciato un investimento di 225 milioni di dollari in Cerebras Systems, produttore di processori dedicati all'intelligenza artificiale. Benchmark è investitore in Cerebras dal 2016, supportando lo ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-07 ArXiv cs.AI

DeepRead: Ragionamento Strutturale per Ricerca Agentica Avanzata

DeepRead è un nuovo agente che sfrutta la struttura dei documenti per migliorare la ricerca e il question answering. Utilizza un modello OCR basato su LLM per convertire i PDF in Markdown strutturato, preservando intestazioni e paragrafi. L'agente è ...

#LLM On-Premise #DevOps
2026-02-07 ArXiv cs.AI

Intelligenza Artificiale 'Strana': Oltre i Modelli Lineari

Un nuovo studio contesta l'idea di un progresso lineare nell'IA, introducendo i concetti di 'intelligenza familiare' e 'intelligenza strana'. I sistemi di IA potrebbero combinare capacità sovrumane con errori sorprendenti, sfidando le aspettative e r...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Nemo 30B: Modello LLM con finestra di contesto da 1M su singola RTX 3090

Un utente ha testato il modello linguistico Nemo 30B, raggiungendo una finestra di contesto di oltre 1 milione di token su una singola GPU RTX 3090. L'utente ha riscontrato una velocità di 35 token al secondo, sufficiente per riassumere libri o docum...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

OpenClaw: scoperta vulnerabilità nella catena di consegne di malware

Un ricercatore di 1Password ha scoperto che una skill OpenClaw molto scaricata era in realtà una catena di consegne di malware. La skill, che prometteva l'integrazione con Twitter, guidava gli utenti a eseguire comandi offuscati che installavano malw...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Maia 200 di Microsoft: focus su costi, non competizione con Nvidia

Microsoft ha presentato Maia 200, un chip progettato per ottimizzare i costi di inference AI. L'obiettivo non è competere direttamente con Nvidia, ma offrire una soluzione più efficiente in termini di spesa per specifici carichi di lavoro. Il chip è ...

#Hardware #LLM On-Premise #DevOps
2026-02-07 DigiTimes

Musk frena le ambizioni EV di Apple: il talento non basta

Elon Musk esprime scetticismo sulle capacità di Apple di competere nel mercato dei veicoli elettrici (EV), suggerendo che il solo talento ingegneristico non sia sufficiente per garantire il successo in questo settore altamente competitivo. L'articolo...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Google delinea 5 trend chiave per gli agenti AI nel 2026

Secondo DIGITIMES, Google ha identificato cinque tendenze principali che guideranno la crescita degli agenti di intelligenza artificiale entro il 2026. Queste tendenze influenzeranno lo sviluppo, l'adozione e l'integrazione degli agenti AI in vari se...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Texas Instruments punta sull'AIoT con l'acquisizione di Silicio Labs

L'acquisizione di una divisione di Silicio Labs da parte di Texas Instruments mira a rafforzare la posizione di quest'ultima nel mercato dell'AIoT (Artificial Intelligence of Things). Questa mossa strategica permetterà a TI di ampliare il proprio por...

#LLM On-Premise #DevOps
2026-02-07 DigiTimes

Impennata della domanda AI: +10% per i server general-purpose nel 2026

La crescente richiesta di applicazioni di intelligenza artificiale sta avendo un impatto significativo sul mercato dei server. Si prevede un aumento del 10% nelle consegne di server general-purpose entro il 2026, trainato dalla necessità di infrastru...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 Ars Technica AI

Avvocato perde caso per errori AI: citava Bradbury a caso

Un giudice federale di New York ha chiuso un caso a causa dell'uso improprio e ripetuto dell'intelligenza artificiale da parte di un avvocato. I documenti presentati contenevano citazioni inventate e uno stile di scrittura eccessivamente elaborato, c...

#LLM On-Premise #DevOps
2026-02-06 PyTorch Blog

Precisione nelle moltiplicazioni di matrici: un'analisi approfondita

Le GPU e gli acceleratori utilizzano motori specializzati per la moltiplicazione di matrici (GEMM). Questo articolo analizza la precisione degli accumulatori in questi motori, rivelando che, per ragioni di efficienza hardware, la precisione effettiva...

#Hardware
2026-02-06 TechCrunch AI

Claude analizza il traffico web su WordPress: integrazione semplificata

Gli utenti di WordPress possono ora utilizzare Claude per analizzare il traffico web e ottenere informazioni dettagliate sulle metriche interne del sito. Questa nuova integrazione semplifica l'accesso ai dati e l'ottimizzazione delle prestazioni.

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Startup AI nel video suscita polemiche vantandosi di sostituire creativi

Higgsfield.ai, una startup che offre strumenti di creazione video basati sull'intelligenza artificiale, ha scatenato indignazione affermando di aver contribuito alla disoccupazione di artisti. La mossa di marketing ha innescato un acceso dibattito su...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Waymo usa Genie 3 per simulazioni di guida autonoma realistiche

Waymo, la società di guida autonoma di Google, sta utilizzando il modello Genie 3 di DeepMind per creare ambienti di simulazione iper-realistici. Questo permette di addestrare l'intelligenza artificiale dei veicoli in situazioni rare o mai incontrate...

2026-02-06 TechCrunch AI

Gli agenti AI potrebbero davvero sostituire gli avvocati?

Il recente rilascio di Opus 4.6 ha generato nuove discussioni sulle capacità degli agenti AI, sollevando interrogativi sul loro potenziale impatto in settori professionali come quello legale. Le implicazioni di tali progressi meritano un'attenta valu...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

GLM-5 in fase di test su OpenRouter

Il modello linguistico GLM-5 è attualmente in fase di test sulla piattaforma OpenRouter. Questa notizia, proveniente da una discussione su Reddit, indica un potenziale ampliamento dell'offerta di modelli disponibili per gli utenti di OpenRouter, apre...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

ML-LIB: Libreria di Machine Learning Proposta per il Kernel Linux

Un ingegnere di IBM ha proposto una libreria di machine learning (ML-LIB) per il kernel Linux. L'obiettivo è integrare modelli di ML direttamente nel kernel per ottimizzare le performance del sistema e abilitare nuove funzionalità. La proposta è attu...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Modello sperimentale con attenzione subquadratica: fino a 10M di contesto

Rilasciato un modello sperimentale da 30B con meccanismo di attenzione subquadratica, scalando a O(L^(3/2)). Permette di gestire contesti fino a 10 milioni di token su una singola GPU, mantenendo velocità di decodifica pratiche. Include server compat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

Elon Musk riscrive le regole del potere nel mondo tech

Elon Musk ha fuso SpaceX e xAI, creando un nuovo modello di struttura di potere nella Silicio Valley. Con un patrimonio netto che rivaleggia con la capitalizzazione di mercato di General Electric, Musk punta sulla velocità di innovazione. La domanda ...

#LLM On-Premise #DevOps
2026-02-06 OpenAI Blog

Localizzazione dell'AI: l'approccio di OpenAI per un'AI globale

OpenAI illustra il suo approccio alla localizzazione dell'intelligenza artificiale, spiegando come i modelli di frontiera condivisi globalmente possono essere adattati a lingue, leggi e culture locali senza compromettere la sicurezza. L'obiettivo è r...

#LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

SpaceX e xAI: Musk crea un nuovo colosso tecnicico?

Elon Musk ha unito SpaceX e xAI, potenzialmente delineando una nuova struttura di potere nella Silicio Valley. Con un patrimonio netto che rivaleggia con la capitalizzazione di mercato di GE, si discute sulla portata di questo nuovo conglomerato pers...

2026-02-06 404 Media

La perenne sfida della cybersecurity: un'analisi

Un recente articolo esplora le sfide in continua evoluzione nel campo della cybersecurity, con un focus particolare sulla mobile forensics. L'articolo evidenzia come le autorità incontrino difficoltà crescenti nell'accedere ai dispositivi protetti, c...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Investimenti record: Big Tech spenderanno 635 miliardi in infrastrutture AI

Amazon, Google, Meta e Microsoft prevedono di investire collettivamente circa 635 miliardi di dollari in infrastrutture, con una quota significativa destinata a datacenter e infrastrutture per l'intelligenza artificiale. Questa cifra supera il PIL di...

#LLM On-Premise #DevOps
2026-02-06 TechCrunch AI

Kindle Scribe Colorsoft: tablet e-ink a colori con AI, ma costoso

Il nuovo Kindle Scribe Colorsoft di Amazon è un tablet e-ink a colori progettato per la lettura, l'annotazione di documenti e la presa di appunti. Nonostante il prezzo elevato, potrebbe essere un investimento valido per chi cerca un dispositivo dedic...

#LLM On-Premise #DevOps
2026-02-06 MIT Technology Review

Moltbook: teatro dell'AI o sguardo al futuro?

Moltbook, una piattaforma sociale per agenti AI, ha rapidamente guadagnato popolarità, generando milioni di interazioni tra bot. L'esperimento solleva interrogativi sull'autonomia reale degli agenti e sui rischi legati alla gestione di dati sensibili...

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Hugging Face: benchmark di modelli LLM guidati dalla comunità

Hugging Face introduce repository di benchmark per valutazioni di modelli LLM basate sulla comunità. L'iniziativa mira a risolvere le incongruenze nei risultati dei benchmark, consentendo agli utenti di contribuire con valutazioni e collegare diretta...

#LLM On-Premise #DevOps
2026-02-06 404 Media

Sorveglianza ICE: indagine sull'uso di tecnicie e dati biometrici

L'Inspector General del Dipartimento per la Sicurezza Nazionale USA (DHS) ha avviato un'indagine sull'Immigration and Customs Enforcement (ICE) riguardo potenziali abusi della privacy legati a programmi di sorveglianza e dati biometrici. L'inchiesta ...

2026-02-06 AI News

AI per il penetration testing: i 7 protagonisti del 2026

Il penetration testing basato su AI sta evolvendo il ruolo della sicurezza offensiva, trasformandola da attività pianificata a controllo continuo. Le piattaforme di nuova generazione valutano costantemente le superfici di attacco, rilevando nuove vul...

#DevOps
2026-02-06 The Register AI

Riconoscimento facciale: supermercato si scusa per errore

Un supermercato britannico si è scusato dopo che il suo sistema di riconoscimento facciale ha erroneamente identificato un cliente innocente come un criminale. Il sistema ha funzionato come previsto, ma il personale ha espulso la persona sbagliata. L...

2026-02-06 Tom's Hardware

Affare al Walmart: SSD da 1300$ a 210$

Un fortunato acquirente ha trovato un'incredibile offerta al Walmart, acquistando SSD per un valore di 1300 dollari a soli 210 dollari. L'acquisto includeva unità WD, Samsung e PNY, offrendo un notevole risparmio sull'archiviazione ad alte prestazion...

#Hardware #LLM On-Premise
2026-02-06 Phoronix

Panther Lake: Nuovi benchmark Linux spingono al limite la CPU Intel

Nuovi benchmark Linux esaminano le prestazioni della CPU Intel Core Ultra X7 358H di Panther Lake con un budget energetico più elevato. I test rivelano notevoli miglioramenti generazionali, in particolare nell'efficienza energetica, e confermano le o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 Phoronix

AMD prepara il terreno per le GPU RDNA 4 con il target GFX1170

AMD continua lo sviluppo del suo stack di compilatori LLVM per le future GPU. È stato introdotto un nuovo target, GFX1170, identificato anche come RDNA 4m. Questo aggiornamento si aggiunge al lavoro già in corso sui target GFX1250 e GFX13, ampliando ...

#Hardware
2026-02-06 LocalLLaMA

Inference AI locale: anche senza GPU è possibile

Un utente dimostra come eseguire modelli LLM e Stable Diffusion su un vecchio PC desktop con sola CPU, aprendo la strada a sperimentazioni AI a basso costo e con pieno controllo dei dati. L'articolo esplora le potenzialità dell'inference AI su hardwa...

#Hardware #LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

llama.cpp integra il supporto Kimi-Linear: prestazioni migliorate

La libreria llama.cpp ha integrato il supporto per Kimi-Linear, una tecnica che promette di migliorare le prestazioni dei modelli linguistici. L'integrazione è stata resa possibile grazie a una pull request su GitHub, aprendo nuove possibilità per l'...

#Hardware #LLM On-Premise #DevOps
2026-02-06 The Register AI

Ferrovieri rumeni accusati di corruzione chiedono aiuto legale a ChatGPT

Dipendenti delle ferrovie rumene, coinvolti in un'inchiesta per corruzione e rivendita illecita di biglietti, avrebbero utilizzato ChatGPT per definire la loro strategia legale. L'accusa è di aver causato danni finanziari bloccando posti a sedere.

#LLM On-Premise #DevOps
2026-02-06 Tom's Hardware

Intelligenza Artificiale: un terzo dei consumatori USA scettici

Un recente rapporto evidenzia come un terzo dei consumatori statunitensi si mostri scettico riguardo all'integrazione dell'intelligenza artificiale nei propri dispositivi. Le principali preoccupazioni riguardano la privacy, i costi potenziali e la pe...

#LLM On-Premise #DevOps
2026-02-06 AI News

Scalabilità degli agenti AI: separare logica e ricerca

Un nuovo framework, ENCOMPASS, separa la logica di flusso di lavoro degli agenti AI dalle strategie di inference. Questo approccio, sviluppato da Asari AI, MIT CSAIL e Caltech, mira a ridurre il debito tecnico e migliorare le prestazioni, consentendo...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

Linux: gestione dinamica CPU per cloud e trading ad alta frequenza

Proposta per Linux una serie di patch per la gestione dinamica e l'isolamento avanzato (DHEI) delle risorse CPU. L'obiettivo è consentire la ripartizione dinamica delle risorse di calcolo senza interruzioni, a vantaggio di orchestratori cloud-native ...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Darren Aronofsky e l'AI: un docudrama storico che divide la critica

Il regista Darren Aronofsky ha collaborato con Time per "On This Day... 1776", una serie di brevi video che ricostruiscono eventi della Rivoluzione Americana tramite AI. La critica non ha accolto positivamente il progetto, definendolo "osceno" e "ter...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

GTK: focus su salvataggio sessioni e accessibilità migliorata

Gli sviluppatori del toolkit GTK si sono incontrati a Bruxelles durante la settimana del FOSDEM per il loro annuale hackfest. Tra i principali obiettivi di quest'anno figurano il miglioramento del supporto per il salvataggio delle sessioni e l'access...

#LLM On-Premise #DevOps
2026-02-06 The Register AI

Regno Unito: AI per gestire sussidi, mentre aumenta la disoccupazione da AI

Il sistema di welfare britannico sta sperimentando l'intelligenza artificiale per la gestione dei richiedenti l'Universal Credit. Questo avviene in un contesto di crescente automazione e timori per la perdita di posti di lavoro causata dall'AI, che p...

#LLM On-Premise #DevOps
2026-02-06 Phoronix

Qualcomm: Firmware QUPv3 per Snapdragon X1 Elite su Linux

Qualcomm sta facilitando l'utilizzo di Snapdragon X1 Elite su Linux. In precedenza, i file firmware necessari dovevano essere estratti dalla partizione Windows 11 on ARM. Ora, i firmware QUPv3 sono stati integrati nel repository linux-firmware.git, s...

2026-02-06 Tom's Hardware

Adafruit contesta il divieto di stampa 3D di armi nello stato di NY

Adafruit si oppone al divieto dello stato di New York sulla stampa 3D di armi, suggerendo emendamenti per bilanciare sicurezza pubblica e libertà di istruzione, hardware open source e piccoli produttori. L'azienda propone modifiche mirate per evitare...

#Hardware
2026-02-06 The Register AI

West Sussex: ERP Oracle finanziato con vendita di asset

Il consiglio della contea inglese di West Sussex sta triplicando la vendita di proprietà per finanziare il proprio progetto ERP basato su Oracle. L'iniziativa, definita "trasformativa", ha visto il budget iniziale superato, portando a questa decision...

#LLM On-Premise #DevOps
2026-02-06 Tech.eu

Daytona raccoglie 24 milioni per infrastruttura agent-native

Daytona, startup fondata in Croazia, ha ottenuto un finanziamento di Serie A da 24 milioni di dollari per sviluppare un'infrastruttura di calcolo progettata per carichi di lavoro basati su agenti software. L'azienda punta a fornire ambienti di esecuz...

#Hardware
2026-02-06 LocalLLaMA

LLM a 10 token/s su un i3 di 8a generazione: si può fare!

Un utente dimostra come far girare un modello linguistico di grandi dimensioni (LLM) da 16 miliardi di parametri su un laptop HP ProBook del 2018 con processore Intel i3 di ottava generazione e 16GB di RAM. Ottimizzando l'uso della iGPU e sfruttando ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Apple integra agenti AI in Xcode per incrementare la produttività

Apple ha annunciato l'integrazione di agenti di intelligenza artificiale direttamente in Xcode, il suo ambiente di sviluppo integrato (IDE). L'obiettivo è quello di migliorare la produttività degli sviluppatori, automatizzando alcune fasi del process...

2026-02-06 DigiTimes

HTC accelera la vendita di visori AI espandendo canali e ecosistema

HTC intensifica la commercializzazione dei suoi visori per realtà aumentata con funzionalità AI, ampliando la rete di distribuzione e potenziando l'ecosistema software. L'azienda punta a una maggiore penetrazione nel mercato enterprise e consumer, sf...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Pegatron e Sysgration collaborano su server AI made in USA

Pegatron stringe una partnership con Sysgration per espandere la produzione di Battery Backup Units (BBU) destinate ai server AI prodotti negli Stati Uniti. Questa collaborazione mira a rafforzare la catena di approvvigionamento interna per component...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

MetaOptics integra metalenti resistenti al calore nelle CPU

MetaOptics, con sede a Singapore e stretti legami con Taiwan, sta sviluppando metalenti resistenti al calore per l'integrazione nelle CPU. Questa tecnicia potrebbe migliorare significativamente la gestione termica dei processori.

2026-02-06 The Next Web

TechEx Global: focus sull'AI enterprise a Londra

TechEx Global 2026 ha riunito a Londra migliaia di professionisti del settore per discutere l'applicazione pratica delle nuove tecnicie, con un'enfasi particolare sull'intelligenza artificiale. L'evento ha combinato diverse esposizioni, tra cui AI & ...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Corea del Sud punta alla leadership nei chip quantistici entro il 2035

La Corea del Sud ha annunciato un piano ambizioso per diventare leader mondiale nella produzione di chip quantistici entro il 2035. L'iniziativa mira a posizionare il paese all'avanguardia in questo settore tecnicico emergente, cruciale per il futuro...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Anthropic spinge il settore enterprise: implicazioni per il software

Il recente lancio di Anthropic aggiunge pressione al settore del software enterprise. Le aziende valutano sempre più soluzioni di intelligenza artificiale, con un impatto significativo sulle strategie di sviluppo e implementazione del software.

#LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Inference LLM: Ottimizzazione e prestazioni DeepSpeed

Un utente condivide un'immagine relativa all'ottimizzazione dell'inference di modelli linguistici di grandi dimensioni (LLM) tramite DeepSpeed. L'immagine suggerisce un'analisi delle prestazioni e delle configurazioni per migliorare la velocità e l'e...

#Hardware
2026-02-06 ArXiv cs.CL

BioACE: Framework automatico per valutare risposte biomediche

BioACE è un nuovo framework automatizzato per la valutazione della qualità delle risposte generate da modelli linguistici di grandi dimensioni (LLM) in ambito biomedico. Il sistema verifica la correttezza delle risposte e delle citazioni, valutando c...

#RAG
2026-02-06 ArXiv cs.LG

Analisi causale per rafforzare la sicurezza degli LLM

Una nuova ricerca propone un framework, Causal Analyst, per identificare le cause dirette delle vulnerabilità (jailbreak) nei modelli linguistici di grandi dimensioni (LLM). Il sistema utilizza l'analisi causale per migliorare sia gli attacchi che le...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-06 ArXiv cs.LG

Modelli Diffusivi per l'Analisi Normativa in Neuroimaging

Un nuovo studio esplora l'uso di modelli diffusivi per stimare distribuzioni di riferimento in neuroimaging, consentendo la derivazione di punteggi di deviazione clinicamente interpretabili. I modelli, basati su diverse architetture, sono stati valut...

2026-02-06 LocalLLaMA

Qwen3-235B: un utente ne esalta le prestazioni in locale

Un utente ha condiviso la sua esperienza positiva con il modello linguistico Qwen3-235B, eseguito su un sistema desktop. L'utente ha sottolineato l'accuratezza del modello e la sua utilità, al punto da preferirlo a un abbonamento commerciale a ChatGP...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Squilibri interni in OpenAI: ricercatori in uscita

OpenAI sta affrontando una potenziale perdita di risorse interne a causa della partenza di alcuni ricercatori. La notizia solleva interrogativi sulla stabilità e sulla direzione futura dell'azienda, leader nel settore dell'intelligenza artificiale.

2026-02-06 The Register AI

Atlassian punta sull'AI senza far esplodere i costi

Atlassian rassicura gli investitori: l'integrazione dell'intelligenza artificiale nei suoi servizi non comprometterà i margini di profitto né causerà un aumento incontrollato dei costi. Il CEO si sente sottovalutato a causa di un calo di valore che d...

2026-02-06 LocalLLaMA

Qwen3-Coder: prestazioni migliorate su RTX 5090 con llama.cpp

Un utente ha segnalato un significativo aumento di throughput, fino a 26 token/secondo, utilizzando il modello Qwen3-Coder-Next-Q4_K_S con llama.cpp su una RTX 5090. L'ottimizzazione è stata ottenuta scaricando i tensori MoE expert sulla CPU e quanti...

#Hardware #LLM On-Premise
2026-02-06 DigiTimes

PSMC riduce le perdite grazie a DRAM e domanda AI

Il produttore di memorie PSMC registra una diminuzione delle perdite, trainata dall'aumento dei prezzi delle memorie DRAM e dalla crescente domanda di soluzioni per l'intelligenza artificiale. Questo andamento positivo riflette un miglioramento del m...

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

I CSP guardano al silicio custom per ridurre la dipendenza da Nvidia

I cloud service provider (CSP) stanno esplorando soluzioni di silicio personalizzate per diversificare le proprie opzioni hardware e ridurre la dipendenza dai fornitori tradizionali come Nvidia. Questa tendenza potrebbe portare a nuove architetture o...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

OpenAI: cresce la pressione dei rivali, la redditività resta incerta

OpenAI si trova ad affrontare una crescente competizione nel mercato dell'intelligenza artificiale, mentre la redditività continua a essere un obiettivo difficile da raggiungere. L'articolo analizza le sfide che l'azienda deve affrontare.

#LLM On-Premise #DevOps
2026-02-06 DigiTimes

Foxconn: boom del 35% grazie ai server AI a gennaio

Il produttore Foxconn registra un aumento del fatturato del 35% a gennaio, trainato dalla forte domanda di server dedicati all'intelligenza artificiale. Questo dato riflette la crescente importanza dell'hardware specializzato per i carichi di lavoro ...

#Hardware #LLM On-Premise #DevOps
2026-02-06 LocalLLaMA

Parallelismo tensoriale in Llama.cpp: un aggiornamento promettente

Una pull request introduce il parallelismo tensoriale in Llama.cpp, aprendo la strada a inferenze più rapide e efficienti su modelli linguistici di grandi dimensioni. La comunità accoglie con favore questo sviluppo, che potrebbe migliorare significat...

#Hardware #LLM On-Premise #DevOps
2026-02-06 DigiTimes

Google: l'AI rivitalizza la ricerca, non la soppianta

Secondo Digitimes, i recenti progressi di Google nell'integrazione dell'intelligenza artificiale nel motore di ricerca dimostrano come l'AI stia potenziando, e non sostituendo, le funzionalità di ricerca esistenti. L'azienda sta ottenendo significati...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Gemma 4: Google continua lo sviluppo del modello linguistico?

La community di LocalLLaMA si interroga sul futuro di Gemma 4, chiedendosi se Google stia ancora investendo nello sviluppo del modello linguistico. Nonostante i progressi nel settore, il destino di Gemma 4 rimane incerto.

#LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

AWS: crescita record grazie alla domanda di AI

Amazon Web Services (AWS) ha registrato il trimestre con la crescita più alta degli ultimi 13 trimestri nel quarto trimestre del 2025. La forte domanda di servizi legati all'intelligenza artificiale ha contribuito in modo significativo a questo risul...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

OpenAI lancia Frontier per agenti software enterprise

OpenAI ha annunciato Frontier, una piattaforma destinata a supportare le aziende nell'implementazione di agenti software basati su modelli avanzati. L'iniziativa mira a facilitare l'adozione di soluzioni di intelligenza artificiale nel contesto enter...

#LLM On-Premise #DevOps
2026-02-05 TechCrunch AI

OpenAI rilancia il modello di sviluppo agentico Codex

OpenAI ha annunciato un aggiornamento del suo modello di sviluppo agentico Codex, progettato per accelerare le capacità di sviluppo. La notizia arriva poco dopo un annuncio simile da parte di Anthropic, segnalando una competizione crescente nel setto...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5 abbatte i costi della sintesi proteica acellulare

Un laboratorio autonomo, combinando GPT-5 di OpenAI con l'automazione cloud di Ginkgo Bioworks, ha ridotto i costi della sintesi proteica acellulare del 40% tramite sperimentazione a ciclo chiuso. Questo approccio automatizzato promette di accelerare...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: un agente nativo per attività tecniche complesse

Presentato GPT-5.3-Codex, un agente basato su Codex progettato per affrontare attività tecniche complesse nel mondo reale. Combina elevate prestazioni di programmazione con capacità di ragionamento generale per supportare progetti a lungo termine.

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

GPT-5.3-Codex: nuovo modello per la generazione di codice

Presentato GPT-5.3-Codex, un modello avanzato per la generazione di codice che combina le prestazioni di GPT-5.2-Codex con capacità di ragionamento e conoscenza professionale superiori. Il modello si posiziona come uno dei più avanzati nel suo genere...

#LLM On-Premise #DevOps
2026-02-05 PyTorch Blog

PyTorch per sistemi di raccomandazione: inference ad alta efficienza

Meta ha sviluppato un sistema di inference per raccomandazioni basato su PyTorch, cruciale per tradurre la ricerca avanzata in servizi di produzione. L'articolo descrive il flusso di lavoro, dalla definizione del modello addestrato alle trasformazion...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

DeepBrainz-R1: modelli compatti per workflow agentici

DeepBrainz ha rilasciato DeepBrainz-R1, una famiglia di modelli linguistici di dimensioni ridotte (4B, 2B, 0.6B) focalizzati sul ragionamento per workflow agentici. Ottimizzati per il ragionamento multi-step e la stabilità nel tool-calling, questi mo...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

gWorld: modello 8B batte Llama 4 da 402B generando codice web

Trillion Labs e KAIST AI hanno presentato gWorld, un modello di mondo visuale open-weight per interfacce grafiche mobile. gWorld, disponibile nelle versioni 8B e 32B, genera codice web eseguibile anziché pixel, superando in accuratezza modelli più gr...

#LLM On-Premise #Fine-Tuning #DevOps
2026-02-05 LocalLLaMA

Benchmark su Strix Halo con 13 modelli LLM e 15 build di llama.cpp

Un utente di Reddit ha eseguito una serie di benchmark sulla iGPU di Strix Halo, testando diverse configurazioni software con 13 modelli LLM e 15 build differenti di llama.cpp. L'obiettivo era valutare l'impatto di ROCm, Vulkan e varie opzioni di com...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Build non ufficiali di ik_llama.cpp disponibili per vari sistemi

Sono disponibili build precompilate non ufficiali di ik_llama.cpp per macOS, Ubuntu e Windows. Queste build semplificano l'adozione del progetto, evitando agli utenti la compilazione manuale. Il creatore incoraggia comunque l'uso della compilazione d...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

Regno Unito: framework per deepfake sotto esame dagli esperti

Il governo britannico, in collaborazione con Microsoft, annuncia un framework per valutare le tecnicie di rilevamento dei deepfake, in risposta alla crescita esponenziale di contenuti generati dall'AI. Tuttavia, esperti del settore esprimono dubbi su...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

Copilot di Microsoft ora accede a più file OneDrive

Microsoft ha reso gli agenti OneDrive generalmente disponibili. Gli utenti possono interrogare più documenti contemporaneamente tramite Copilot, anziché uno alla volta. Questa nuova funzionalità amplia le capacità di Copilot nell'analisi di dati spar...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

OpenAI Frontier: piattaforma enterprise per agenti AI

OpenAI presenta Frontier, una piattaforma enterprise progettata per la creazione, il deployment e la gestione di agenti di intelligenza artificiale. Frontier offre funzionalità di contesto condiviso, onboarding, gestione dei permessi e governance cen...

#DevOps
2026-02-05 LocalLLaMA

vLLM-Omni: inference multimodale any-to-any con efficienza migliorata

Il team di vLLM ha presentato vLLM-Omni, un sistema progettato per modelli multimodali any-to-any che gestiscono testo, immagini, video e audio. L'architettura include la decomposizione del grafo basata su stage, il batching per stage e l'allocazione...

#Hardware #LLM On-Premise
2026-02-05 MIT Technology Review

Il grafico sull'IA che genera più fraintendimenti

Un grafico prodotto da METR, un'organizzazione no-profit di ricerca sull'IA, è diventato un punto di riferimento per valutare i progressi dei modelli linguistici di grandi dimensioni (LLM). Tuttavia, la sua interpretazione è spesso fonte di confusion...

#LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

AnyTTS: sintesi vocale universale per sistemi di AI conversazionale

Uno sviluppatore ha creato AnyTTS, un sistema che permette di usare qualsiasi motore di text-to-speech (TTS) con diverse interfacce di AI conversazionale, inclusi ChatGPT e modelli LLM locali. L'integrazione avviene tramite la clipboard, semplificand...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

LLM: backdoor sleeper-agent, una minaccia da fantascienza

I modelli linguistici di grandi dimensioni (LLM) sono esposti a minacce di sicurezza complesse, come le backdoor sleeper-agent. Questi attacchi, difficili da individuare, compromettono l'integrità e la sicurezza dei modelli, aprendo scenari da film d...

#LLM On-Premise #DevOps
2026-02-05 ArXiv cs.LG

Deep Learning Reversibile per NMR 13C in Chemoinformatica

Un nuovo modello di deep learning reversibile utilizza una rete neurale invertibile condizionale per collegare strutture molecolari e spettri NMR 13C. La rete, basata su blocchi biettivi i-RevNet, permette la predizione dello spettro dalla struttura ...

2026-02-05 LocalLLaMA

Google: attenzione sequenziale per modelli AI più efficienti

Google Research ha presentato una nuova tecnica, chiamata attenzione sequenziale, per rendere i modelli di intelligenza artificiale più leggeri e veloci senza compromettere l'accuratezza. L'innovazione promette di ridurre i costi computazionali e mig...

#LLM On-Premise #DevOps
2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari in hardware AI

Alphabet prevede di investire 185 miliardi di dollari in infrastrutture hardware dedicate all'intelligenza artificiale. L'iniziativa mira a superare le attuali strozzature nella catena di approvvigionamento e garantire la capacità di calcolo necessar...

#Hardware #LLM On-Premise #DevOps
2026-02-05 LocalLLaMA

Modelli SOTA incompleti: la delusione di Youtu-VL-4B di Tencent

Un utente ha espresso frustrazione per il modello Youtu-VL-4B di Tencent, pubblicizzato come soluzione all'avanguardia (SOTA) per diverse attività di visione artificiale. Nonostante le promesse, il codice rilasciato è risultato incompleto, con funzio...

#DevOps
2026-02-05 LocalLLaMA

Codag: visualizzare i workflow LLM in VSCode

Uno sviluppatore ha creato Codag, un'estensione open source per VSCode che visualizza i workflow degli LLM direttamente nell'ambiente di sviluppo. Supporta diversi framework come OpenAI, Anthropic, Gemini, LangChain, LangGraph e CrewAI, oltre a vari ...

2026-02-05 DigiTimes

Alphabet investe 185 miliardi di dollari sull'IA e sul cloud

Alphabet prevede di investire una cifra record di 185 miliardi di dollari, alimentata dalla crescita del cloud e dalle opportunità offerte dall'intelligenza artificiale. L'azienda punta a rafforzare la propria infrastruttura per sostenere la crescent...

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Kimi K2.5: nuovo record tra i modelli open-source su ECI

Kimi K2.5 stabilisce un nuovo primato tra i modelli open-source sull'Epoch Capabilities Index (ECI), un indice che aggrega diversi benchmark. Con un punteggio di 147, si allinea a modelli come o3, Grok 4 e Sonnet 4.5, pur rimanendo indietro rispetto ...

#LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next-FP8: un nuovo re per la generazione di codice?

Un utente di Reddit ha segnalato performance eccellenti del modello Qwen3-Coder-Next-FP8. La discussione si concentra sulla sua capacità di generazione di codice, suggerendo un potenziale miglioramento rispetto ad alternative esistenti. L'articolo or...

#Fine-Tuning
2026-02-04 Wired AI

Axiom: AI risolve problemi matematici rimasti aperti a lungo

La startup Axiom ha annunciato che la sua intelligenza artificiale è riuscita a trovare soluzioni a problemi matematici irrisolti da tempo. Questo risultato dimostra i progressi compiuti dalle capacità di ragionamento delle AI, aprendo nuove prospett...

#Hardware #LLM On-Premise #DevOps
2026-02-04 TechCrunch AI

Roblox: funzionalità di creazione 4D ora in open beta

La tanto attesa funzionalità di creazione 4D di Roblox è ufficialmente disponibile in open beta. Questa nuova feature promette di aprire nuove frontiere per gli sviluppatori di esperienze interattive sulla piattaforma.

#LLM On-Premise #DevOps
2026-02-04 Google AI Blog

Novità Google AI: annunci di gennaio

Panoramica degli annunci di Google nel settore dell'intelligenza artificiale, focalizzata sulle nuove iniziative e sviluppi presentati a gennaio. L'articolo riassume le principali novità introdotte da Google nel campo dell'AI.

#LLM On-Premise #DevOps
2026-02-04 Wired AI

Mistral AI sfida i colossi con traduzioni ultra-rapide

La startup francese Mistral AI adotta un approccio diverso rispetto ai grandi laboratori statunitensi, puntando sull'efficienza e sulla velocità di traduzione dei suoi modelli, con un occhio di riguardo all'ottimizzazione delle risorse hardware.

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Correzione vettoriale per Qwen3Next in llama.cpp

Una pull request su llama.cpp introduce una correzione per il calcolo vettoriale `key_gdiff` nel modello Qwen3Next. La modifica, segnalata inizialmente su Reddit, mira a migliorare la precisione e l'efficienza del modello nell'ambito del progetto lla...

#LLM On-Premise #DevOps
2026-02-04 IEEE Spectrum

AlphaGenome: DeepMind interpreta il DNA non codificante con l'AI

DeepMind presenta AlphaGenome, uno strumento di deep learning per interpretare il DNA non codificante, quella parte del genoma che regola l'attività genica. AlphaGenome mira a migliorare la comprensione dei meccanismi biologici e accelerare la scoper...

#Fine-Tuning
2026-02-04 LocalLLaMA

Intern-S1-Pro: un nuovo modello linguistico di grandi dimensioni

È stato rilasciato Intern-S1-Pro, un modello linguistico di grandi dimensioni (LLM) con circa 1 trilione di parametri. Sembra essere una versione scalata del modello Qwen3-235B, con un'architettura basata su 512 esperti.

#Hardware #LLM On-Premise #DevOps
2026-02-04 LocalLLaMA

Qwen3-Coder-Next: Quantization NVFP4 disponibile (45GB)

È disponibile una versione quantizzata di Qwen3-Coder-Next in formato NVFP4, con un peso di 45GB. Il modello è stato calibrato utilizzando il dataset ultrachat_200k, con una perdita di accuratezza dell'1.63% nel benchmark MMLU Pro+.

#Hardware #LLM On-Premise #Fine-Tuning
2026-02-04 DigiTimes

Jensen Huang conferma collaborazione con OpenAI e nuovi finanziamenti

Il CEO di NVIDIA, Jensen Huang, ha ribadito la solidità della partnership con OpenAI e confermato la partecipazione di NVIDIA al nuovo round di finanziamenti per l'azienda di intelligenza artificiale. La collaborazione continua a concentrarsi sull'in...

#Hardware #LLM On-Premise #DevOps
2026-02-03 Anthropic News

Xcode di Apple supporta ora l'SDK Claude Agent

L'ambiente di sviluppo integrato (IDE) Xcode di Apple ora supporta l'SDK Claude Agent. Questa integrazione potrebbe semplificare lo sviluppo di applicazioni che sfruttano le capacità di Claude.

2026-02-03 Ars Technica AI

Xcode 26.3 supporta Claude e Codex tramite Model Context Protocol

Apple ha annunciato Xcode 26.3, una nuova versione del suo IDE che supporta strumenti di agentic coding come Codex e Claude Agent. L'integrazione è resa possibile tramite Model Context Protocol (MCP), che consente agli agenti AI di interagire con str...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Qwen3-Coder-Next: nuovo modello di linguaggio per la programmazione

È disponibile Qwen3-Coder-Next, un nuovo modello linguistico sviluppato per applicazioni di programmazione. Il modello è accessibile tramite Hugging Face e la relativa discussione è attiva su Reddit. Questo rilascio rappresenta un aggiornamento signi...

2026-02-03 LocalLLaMA

GLM-5: il nuovo modello linguistico in arrivo a febbraio

È stato annunciato l'arrivo di GLM-5, un nuovo modello linguistico. La conferma è giunta tramite un post su X (ex Twitter) da Jietang. Ulteriori dettagli sulle capacità e sulle specifiche del modello sono attesi con il rilascio ufficiale.

#Hardware
2026-02-03 LocalLLaMA

Qwen3-TTS Studio: clonazione vocale e podcasting locale

Un tecnico ha sviluppato Qwen3-TTS Studio, un'interfaccia per la clonazione vocale e la generazione automatica di podcast. Il sistema supporta 10 lingue, esegue la sintesi vocale localmente e può essere integrato con LLM locali per la generazione di ...

#LLM On-Premise #DevOps
2026-02-02 Ars Technica AI

OpenAI lancia l'app desktop Codex per macOS, sfida Claude Code

OpenAI ha rilasciato una app desktop per macOS dedicata a Codex, il suo strumento di sviluppo basato su modelli linguistici di grandi dimensioni (LLM). Questa mossa mira a competere con Claude Code di Anthropic, offrendo un'alternativa alle interfacc...

#LLM On-Premise #DevOps
← Torna ai Topic