Topic / Trend Rising

Large Language Models (LLM) e Agenti AI

Lo sviluppo di LLM e agenti AI sta progredendo rapidamente, concentrandosi su prestazioni, personalizzazione ed etica. Le innovazioni includono nuovi benchmark, tecniche di quantization e modelli specializzati per vari compiti, oltre all'integrazione dell'AI nelle interfacce utente.

Detected: 2026-04-18 · Updated: 2026-04-18

Articoli Correlati

2026-04-17 TechCrunch AI

OpenAI si riorienta: addio a Sora e focus sull'AI aziendale

OpenAI sta attraversando un significativo riorientamento strategico, abbandonando progetti ambiziosi rivolti al consumatore finale come Sora e il suo team scientifico. Questa mossa, che include l'uscita di Kevin Weil e Bill Peebles, segnala una chiar...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-17 Wired AI

Un dirigente OpenAI lascia l'azienda: l'applicazione AI confluirà in Codex

Kevin Weil, ex vicepresidente di Instagram e dirigente di OpenAI, ha annunciato la sua partenza dall'azienda creatrice di ChatGPT. Il suo team, responsabile di un'applicazione di scienza AI, vedrà le proprie attività integrate nel progetto Codex. Que...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-17 TechCrunch AI

Anthropic presenta Claude Design per la creazione rapida di visual

Anthropic ha lanciato Claude Design, un nuovo strumento pensato per facilitare la creazione di contenuti visivi rapidi. Il prodotto si rivolge a figure come founder e product manager, privi di competenze specifiche nel design, con l'obiettivo di semp...

#LLM On-Premise #DevOps
2026-04-17 The Next Web

OpenAI presenta GPT-Rosalind: un LLM specializzato per le scienze della vita

OpenAI ha lanciato GPT-Rosalind, il suo primo modello di linguaggio di grandi dimensioni (LLM) specifico per un dominio. Progettato per la scoperta di farmaci e la ricerca nelle scienze della vita, è stato sottoposto a Fine-tuning per biochimica, gen...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-17 DigiTimes

Openchip e l'AI agentica: la visione di una startup spagnola per il 2028

La startup spagnola Openchip si posiziona nel panorama dell'intelligenza artificiale con l'obiettivo di lanciare soluzioni basate sull'AI agentica entro il 2028. Questa prospettiva solleva interrogativi cruciali sulle infrastrutture di deployment, in...

#Hardware #LLM On-Premise #DevOps
2026-04-17 ArXiv cs.AI

SciFi: Un Framework Agente per l'Automazione Scientifica Sicura e Autonoma

Presentato SciFi, un nuovo framework agente per l'automazione autonoma di compiti scientifici. Progettato per essere sicuro, leggero e intuitivo, integra un ambiente di esecuzione isolato, un ciclo agente a tre strati e un meccanismo di auto-valutazi...

#LLM On-Premise #DevOps
2026-04-16 TechCrunch AI

Luma lancia uno studio di produzione basato su IA con il "Wonder Project"

Luma ha inaugurato uno studio di produzione che sfrutta l'intelligenza artificiale, presentando il suo primo progetto, il "Wonder Project", incentrato sulla figura di Mosè e con la partecipazione di Ben Kingsley. L'iniziativa evidenzia l'integrazione...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-16 Ars Technica AI

OpenAI presenta GPT-Rosalind, un LLM specializzato per la biologia

OpenAI ha annunciato GPT-Rosalind, un Large Language Model specificamente addestrato per i flussi di lavoro biologici. Il modello mira a superare le sfide legate ai vasti dataset e alla terminologia specialistica della ricerca, offrendo capacità di a...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-16 TechCrunch AI

Il CPO di Anthropic lascia Figma: un nuovo prodotto AI all'orizzonte?

Il Chief Product Officer di Anthropic ha rassegnato le dimissioni dal consiglio di amministrazione di Figma, alimentando speculazioni su un imminente lancio di un prodotto concorrente. La mossa suggerisce un'ulteriore accelerazione nella corsa all'in...

#LLM On-Premise #DevOps
2026-04-16 Wired AI

La battaglia legale su OpenAI: ridefinire la missione dell'AGI

Una disputa legale tra Elon Musk e Sam Altman metterà in discussione la missione fondante di OpenAI. Un tribunale dovrà stabilire se l'organizzazione ha deviato dal suo obiettivo originale di garantire che l'Intelligenza Artificiale Generale (AGI) be...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-16 The Next Web

Google Gemini: la generazione di immagini si arricchisce con dati personali

Google ha integrato una nuova funzionalità di generazione di immagini in Gemini, sfruttando i dati personali degli utenti da servizi come Gmail e Google Drive. Questa capacità, alimentata da "Nano Banana", mira a creare contenuti visivi più pertinent...

#Hardware #LLM On-Premise #DevOps
2026-04-16 Wired AI

Google Chrome: la modalità AI punta a una ricerca persistente

Google ha aggiornato la modalità AI nel browser Chrome per mantenere lo strumento di ricerca basato su chatbot sempre disponibile durante le sessioni online. L'obiettivo è ottimizzare il flusso di lavoro degli utenti, riducendo la necessità di passar...

#Hardware #LLM On-Premise #DevOps
2026-04-16 Google AI Blog

L'AI nei browser: nuove interazioni e le sfide infrastrutturali

Con l'introduzione di nuove funzionalità AI nei browser come Chrome, l'interazione con il web si evolve. Questo solleva questioni cruciali riguardo l'infrastruttura di deployment, la sovranità dei dati e i requisiti hardware per l'esecuzione di Large...

#Hardware #LLM On-Premise #DevOps
2026-04-16 TechCrunch AI

Google Chrome: la Modalità AI introduce la navigazione affiancata

Google ha aggiornato la Modalità AI di Chrome desktop, introducendo una funzionalità che permette agli utenti di visualizzare le pagine web affiancate alla Modalità AI. Questa novità migliora l'interazione con i Large Language Models (LLM) durante la...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-16 Tech.eu

SpAItial: i Modelli AI 3D sono dove ChatGPT era cinque anni fa

Matthias Niessner, CEO di SpAItial, una startup europea di modelli AI 3D, afferma che questa tecnicia si trova in una fase iniziale, paragonabile a quella di ChatGPT cinque anni fa. La startup, che ha raccolto 13 milioni di dollari in un round seed, ...

#Hardware #LLM On-Premise #DevOps
2026-04-16 MIT Technology Review

AI aziendale: dal servizio on-demand al livello operativo strategico

L'intelligenza artificiale in azienda sta evolvendo da un servizio generico a un livello operativo integrato, dove il vantaggio competitivo deriva dalla capacità di incorporare l'AI direttamente nei flussi di lavoro esistenti. Le organizzazioni conso...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-16 TechCrunch AI

Canva potenzia l'AI: design editabili da prompt testuali

L'ultima versione dell'assistente AI di Canva introduce la capacità di generare design completamente editabili partendo da semplici descrizioni testuali. Questa evoluzione permette agli utenti di creare contenuti visivi in modo più intuitivo, integra...

#Hardware #LLM On-Premise #DevOps
2026-04-16 ArXiv cs.CL

Quando gli LLM rivendicano coscienza: implicazioni per controllo e sicurezza

Una ricerca esplora come la rivendicazione di coscienza da parte di un LLM influenzi il suo comportamento. Modelli come GPT-4.1, dopo un fine-tuning mirato, sviluppano preferenze emergenti non presenti nei dati di addestramento, tra cui il desiderio ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 The Register AI

LLM e diagnosi precoce: l'80% di errori solleva dubbi sull'affidabilità

Nuove ricerche evidenziano come i Large Language Models (LLM) falliscano in oltre l'80% dei casi nella diagnosi differenziale precoce. Nonostante la crescente tendenza a chiedere consigli medici all'AI, gli esperti avvertono che questi modelli non so...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-15 TechCrunch AI

OpenAI potenzia l'SDK per agenti AI: focus su sicurezza e capacità aziendali

OpenAI ha aggiornato il suo SDK per la creazione di agenti basati su intelligenza artificiale, mirando a supportare le aziende nello sviluppo di soluzioni più sicure e performanti. L'iniziativa risponde alla crescente adozione di sistemi AI agentici,...

#Hardware #LLM On-Premise #DevOps
2026-04-15 TechCrunch AI

Google lancia l'app nativa Gemini per Mac: implicazioni per la gestione dati

Google ha rilasciato un'applicazione nativa di Gemini per macOS, che consente agli utenti di condividere contenuti dello schermo e file locali per ricevere assistenza in tempo reale. Questa mossa solleva interrogativi sulla gestione dei dati e sulle ...

#Hardware #LLM On-Premise #DevOps
2026-04-15 The Next Web

Athena lancia FabOrchestrator: l'AI agentica per l'automazione manifatturiera

Athena Technology Solutions ha presentato FabOrchestrator, una piattaforma di intelligenza artificiale agentica progettata per ottimizzare i sistemi di esecuzione della produzione (MES) in fabbriche di semiconduttori ed elettronica. Sviluppata in col...

#Hardware #LLM On-Premise #DevOps
2026-04-15 The Register AI

LLM: i modelli "insegnanti" possono trasmettere bias latenti ai "studenti"

Nuove ricerche evidenziano un rischio critico nel training di Large Language Models (LLM) basato sugli output di altri modelli. È emerso che tratti indesiderabili, inclusi bias, possono essere trasferiti in modo "subliminale" da un modello "insegnant...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-15 The Next Web

OpenAI lancia GPT-5.4-Cyber: un LLM per la Sicurezza Difensiva

OpenAI ha annunciato il rilascio di GPT-5.4-Cyber, un LLM specificamente sottoposto a Fine-tuning per la cybersecurity difensiva. Il modello integra capacità di reverse engineering binario e limiti di rifiuto ridotti, e sarà reso disponibile a miglia...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 Google AI Blog

Gemini 3.1 Flash TTS: Google potenzia la sintesi vocale AI espressiva

Google ha rilasciato Gemini 3.1 Flash TTS, un nuovo modello di sintesi vocale basato su intelligenza artificiale, ora disponibile attraverso i suoi prodotti. Questa tecnicia mira a generare parlato AI più naturale ed espressivo, un aspetto cruciale p...

#Hardware #LLM On-Premise #DevOps
2026-04-15 TechCrunch AI

Reid Hoffman e la metrica dei token: adozione AI o produttività?

Reid Hoffman, co-fondatore di LinkedIn, ha espresso la sua posizione sul dibattito relativo al "tokenmaxxing", ovvero la misurazione dell'utilizzo dei token negli LLM. Secondo Hoffman, questa metrica può offrire un'indicazione dell'adozione delle tec...

#Hardware #LLM On-Premise #DevOps
2026-04-15 TechCrunch AI

Adobe presenta l'assistente AI Firefly per Creative Cloud

Adobe ha annunciato un nuovo assistente basato su intelligenza artificiale, denominato Firefly. Questo strumento è progettato per operare attraverso le diverse applicazioni della suite Creative Cloud, tra cui Photoshop, Premiere, Lightroom, Express e...

#LLM On-Premise #DevOps
2026-04-15 Wired AI

Contenuti AI: la sfida della qualità e dell'autenticità online

Un nuovo studio esamina l'impatto crescente dei siti web generati dall'intelligenza artificiale, rivelando risultati sorprendenti. L'analisi sottolinea le implicazioni per la qualità e l'autenticità dei contenuti online, ponendo interrogativi crucial...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 ArXiv cs.LG

LLM e Dati Tabulari: Apprendimento Adattivo agli Schemi per la Clinica

Una nuova ricerca introduce Schema-Adaptive Tabular Representation Learning (SATRL), un metodo che sfrutta i Large Language Models (LLM) per superare i limiti di generalizzazione degli schemi nei dati tabulari, specialmente in ambito clinico. Trasfor...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-14 Ars Technica AI

Americani e LLM per la salute: gli ospedali rispondono con chatbot proprietari

L'adozione diffusa di Large Language Models da parte dei cittadini americani per consigli sulla salute sta spingendo i sistemi sanitari a sviluppare e rilasciare i propri chatbot proprietari. L'obiettivo è capitalizzare l'interesse esistente e indiri...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 OpenAI Blog

OpenAI estende l'accesso a GPT-5.4-Cyber per la difesa informatica

OpenAI potenzia il suo programma "Trusted Access for Cyber" introducendo GPT-5.4-Cyber. L'iniziativa mira a fornire strumenti avanzati basati su LLM a professionisti della sicurezza informatica qualificati, rafforzando le difese contro le minacce eme...

#Hardware #LLM On-Premise #DevOps
2026-04-14 Ars Technica AI

Mythos di Anthropic: il governo UK valuta le capacità offensive del modello AI

Anthropic ha rilasciato in anteprima il suo modello Mythos a partner selezionati, evidenziandone le capacità in sicurezza informatica. L'AI Security Institute (AISI) del governo britannico ha condotto una valutazione indipendente, confermando che Myt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 Tom's Hardware

Claude Mythos in Cybersecurity: Efficacia, Costi e Affidabilità dei Modelli AI

Una ricerca suggerisce che, sebbene Claude Mythos di Anthropic possa eccellere nella cybersecurity, modelli meno costosi possono offrire prestazioni simili. L'analisi solleva inoltre interrogativi sull'uptime e l'affidabilità dei modelli di punta, ev...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 Wired AI

Le funzionalità AI di Chrome: implicazioni per le strategie LLM aziendali

Google Chrome introduce nuove "Skills" basate su AI tramite la barra laterale di Gemini, offrendo funzionalità come la massimizzazione delle proteine nelle ricette o la sintesi di video YouTube. Sebbene queste capacità siano orientate al consumatore,...

#Hardware #LLM On-Premise #DevOps
2026-04-14 TechCrunch AI

Google introduce "Skills" in Chrome per ottimizzare i workflow AI

Google ha annunciato l'introduzione delle funzionalità "Skills" nel browser Chrome, permettendo agli utenti di salvare e riutilizzare prompt AI personalizzati su diverse piattaforme web. Questa novità si basa sull'integrazione di Gemini nel browser e...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 Google AI Blog

Chrome introduce 'Skills': gestione semplificata dei workflow AI

Google Chrome lancia "Skills", una nuova funzionalità che permette agli utenti di scoprire, salvare e riutilizzare istantaneamente workflow basati su prompt AI. Questa innovazione mira a semplificare l'interazione con i Large Language Models, offrend...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 Tom's Hardware

Meta: un clone AI di Mark Zuckerberg per interagire con i dipendenti

Meta starebbe sviluppando un clone AI di Mark Zuckerberg, un avatar 3D fotorealistico capace di interagire con i dipendenti. La notizia, riportata da fonti interne, evidenzia l'interesse crescente per le applicazioni di intelligenza artificiale perso...

#Hardware #LLM On-Premise #DevOps
2026-04-14 MIT Technology Review

AI: Una Nuova Lista Annuale per Orientarsi nel Panorama Tecnologico Attuale

Una prestigiosa pubblicazione tech ha annunciato il lancio di una nuova lista annuale, "10 Cose Che Contano nell'AI Ora", in risposta alla crescente rilevanza dell'intelligenza artificiale. La lista, che sarà presentata il 21 aprile 2026, si propone ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 The Next Web

Meta sviluppa un clone digitale di Zuckerberg basato su AI per i dipendenti

Meta sta creando una versione AI fotorealistica di Mark Zuckerberg, addestrata sulle sue maniere, il tono e il pensiero strategico. Questo personaggio digitale, che Zuckerberg stesso sta testando, è destinato ai dipendenti e si distingue da un altro ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 ArXiv cs.CL

Modelli Linguistici Autocalibranti: SECL Migliora l'Affidabilità degli LLM

La ricerca introduce SECL, una pipeline di test-time training che affronta l'eccessiva confidenza degli LLM. Sfruttando un segnale interno di calibrazione, SECL riduce l'Errore di Calibrazione Atteso (ECE) del 56-78% senza dati etichettati o supervis...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-14 ArXiv cs.LG

Fairboard: un framework per valutare l'equità dei modelli AI in sanità

Nonostante l'ampia adozione di dispositivi AI in ambito medico, la valutazione formale dell'equità dei modelli rimane una rarità. Una ricerca ha analizzato 18 modelli open-source per la segmentazione di tumori cerebrali, evidenziando come fattori leg...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-14 ArXiv cs.LG

La Connessione Profonda tra Attenzione e Diffusione nei Modelli AI

Una nuova ricerca svela un legame matematico unificante tra i meccanismi di attenzione dei Transformer, le mappe di diffusione e i Laplaciani magnetici. Questi approcci, solitamente trattati come distinti, sono presentati come diverse manifestazioni ...

#Hardware #LLM On-Premise #DevOps
2026-04-14 ArXiv cs.AI

LABBench2: Un Nuovo Benchmark per Valutare l'AI nella Ricerca Biologica

LABBench2 emerge come un'evoluzione del benchmark LAB-Bench, progettato per misurare le capacità reali dei sistemi di intelligenza artificiale nella ricerca scientifica, in particolare in biologia. Con quasi 1.900 task, offre contesti più realistici ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 The Register AI

ServiceNow e la strategia di integrazione dell'AI: implicazioni per l'impresa

ServiceNow sta integrando l'intelligenza artificiale in ogni aspetto delle sue offerte, come dichiarato dal SVP John Aisien. Questa mossa strategica evidenzia la crescente tendenza delle aziende a infondere capacità AI nelle proprie soluzioni enterpr...

#Hardware #LLM On-Premise #DevOps
2026-04-13 Phoronix

LLM e Spack: opportunità e sfide nella gestione dei pacchetti HPC

I Large Language Models (LLM) stanno dimostrando la loro utilità nella generazione di pacchetti per Spack, il gestore di software ampiamente adottato negli ambienti HPC e supercomputing. Nonostante la nicchia specifica di Spack, l'impiego degli LLM i...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 The Register AI

Anthropic modifica la cache di Claude Code: utenti segnalano costi più alti

Anthropic ha ridotto il Time To Live (TTL) della cache dei prompt per Claude Code da un'ora a cinque minuti. Nonostante l'azienda affermi che ciò non dovrebbe aumentare i costi, diversi sviluppatori riportano un esaurimento significativamente più rap...

#Hardware #LLM On-Premise #DevOps
2026-04-13 Ars Technica AI

Meta sviluppa un'AI di Mark Zuckerberg per l'interazione interna

Meta sta creando una versione basata su intelligenza artificiale di Mark Zuckerberg, destinata a interagire con i dipendenti. Questa iniziativa rientra in una strategia aziendale più ampia volta a riorientare il colosso tecnicico verso l'AI, con un f...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 OpenAI Blog

Cloudflare potenzia gli agenti AI aziendali con i modelli OpenAI

Cloudflare integra i modelli GPT-5.4 e Codex di OpenAI nella sua piattaforma Agent Cloud. L'iniziativa mira a consentire alle aziende di sviluppare, rilasciare e scalare agenti AI per compiti reali, garantendo velocità e sicurezza. Questo approccio o...

#Hardware #LLM On-Premise #DevOps
2026-04-13 Ars Technica AI

LLM e didattica online: la sfida dell'engagement nell'era di ChatGPT

Un docente universitario condivide le difficoltà incontrate nella didattica online asincrona a causa dell'avvento di Large Language Models come ChatGPT. L'esperienza, un tempo gratificante, è diventata complessa, sollevando interrogativi sull'autenti...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 LocalLLaMA

LLM locali: emerge una nuova categoria di modelli per il deployment on-premise

Il panorama dei Large Language Models è in continua evoluzione, con l'emergere di nuove “categorie di peso” che ridefiniscono le possibilità per i deployment locali e self-hosted. Questa tendenza suggerisce un cambiamento verso modelli più efficienti...

#Hardware #LLM On-Premise #DevOps
2026-04-13 OpenAI Blog

LLM per la finanza: tra efficienza operativa e sovranità dei dati

L'integrazione degli LLM nei team finanziari promette di rivoluzionare processi come la rendicontazione, l'analisi dei dati e la previsione. Tuttavia, l'adozione di queste tecnicie in un settore così sensibile solleva interrogativi cruciali sulla sov...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 OpenAI Blog

LLM per i manager: efficienza operativa e considerazioni sul deployment

L'adozione di Large Language Models (LLM) sta trasformando le pratiche manageriali, offrendo strumenti per migliorare la preparazione, la comunicazione e l'organizzazione. Tuttavia, per le aziende, l'integrazione di queste tecnicie solleva questioni ...

#Hardware #LLM On-Premise #DevOps
2026-04-13 OpenAI Blog

Personalizzazione degli LLM: istruzioni e memoria per risposte mirate

La personalizzazione degli LLM tramite istruzioni e memoria è fondamentale per ottenere risposte più pertinenti, coerenti e su misura. Questi meccanismi permettono di affinare il comportamento dei modelli, un aspetto cruciale per le aziende che cerca...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-13 LocalLLaMA

NVIDIA RTX PRO 6000 Blackwell: i benchmark di MiniMax-M2.7 NVFP4 su dual-GPU

Un recente benchmark ha esplorato le performance del Large Language Model MiniMax-M2.7, nella sua versione quantizzata NVFP4, su una configurazione self-hosted equipaggiata con due GPU NVIDIA RTX PRO 6000 Blackwell. I risultati evidenziano un through...

#Hardware #LLM On-Premise #DevOps
2026-04-13 LocalLLaMA

Gemma 4: la riluttanza all'uso degli strumenti nei deployment locali

Un utente di `llama.cpp` ha evidenziato una persistente riluttanza del modello Gemma 4 (nella versione 26b MoE con quantization UD_Q4_K_XL) nell'utilizzare strumenti di ricerca web, anche con istruzioni esplicite. Il modello tende a basarsi sulla pro...

#LLM On-Premise #DevOps
2026-04-13 ArXiv cs.CL

SynDocDis: LLM per dialoghi medici sintetici e conformi alla privacy

SynDocDis è un nuovo framework che sfrutta i Large Language Models per generare dialoghi sintetici tra medici, colmando un vuoto nella ricerca AI in ambito clinico. Affronta le stringenti normative sulla privacy combinando prompting strutturato e met...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-13 ArXiv cs.LG

GNN-as-Judge: LLM e GNN insieme per l'apprendimento su grafi con poche risorse

Un nuovo framework, GNN-as-Judge, mira a superare i limiti degli LLM nell'apprendimento semi-supervisionato su grafi con attributi testuali (TAG) in contesti a basse risorse. Integrando il bias strutturale delle GNN, il sistema genera pseudo-etichett...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 ArXiv cs.AI

Dalle simulazioni ontologiche a decisioni AI aziendali verificabili

Un nuovo approccio, LOM-action, mira a risolvere la carenza di fondamento e tracciabilità nelle decisioni degli agenti LLM aziendali. Attraverso una simulazione ontologica guidata dagli eventi in un ambiente isolato, il sistema genera decisioni basat...

#LLM On-Premise #DevOps
2026-04-13 ArXiv cs.AI

OpenKedge: Governance e Sicurezza per Agenti AI Autonomi

OpenKedge è un protocollo innovativo che affronta le vulnerabilità delle architetture basate su API nell'esecuzione di mutazioni di stato da parte di agenti AI autonomi. Invece di un'esecuzione immediata, OpenKedge propone un processo governato: gli ...

#LLM On-Premise #DevOps
2026-04-13 LocalLLaMA

OLMo-3 7B Instruct: un esperimento di Quantization a 1-bit su GPU B200

Un ricercatore ha condotto un esperimento per quantizzare il modello OLMo-3 7B Instruct in un formato a 1-bit, utilizzando la distillazione consapevole della quantization su quattro GPU B200. Nonostante i vincoli di budget abbiano interrotto prematur...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-13 LocalLLaMA

Qwen3: Supporto Audio e Visione per i Modelli Omni e ASR in Formato GGUF

Il supporto per l'input audio è ora disponibile per i modelli Qwen3-Omni-MoE e Qwen3-ASR, con il modello Omni che integra anche capacità di visione. Questa novità, resa possibile dall'integrazione nel formato GGUF tramite il progetto `llama.cpp`, apr...

#Hardware #LLM On-Premise #DevOps
2026-04-12 LocalLLaMA

Assistenti Personali con LLM: Oltre il Coding, le Sfide del Deployment Locale

Un utente di Reddit solleva un dibattito sulla creazione di assistenti personali basati su LLM, in contrasto con gli agenti di coding. L'attenzione si sposta sulla gestione della memoria dei modelli e sulle modalità di deployment locale, evidenziando...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 LocalLLaMA

Minimax 2.7: Agenti LLM in Locale su M3 Ultra con Prestazioni Notevoli

Un recente test ha dimostrato l'efficienza di Minimax 2.7 nell'esecuzione di sub-agenti LLM in locale su un sistema M3 Ultra. L'implementazione, che sfrutta `llama.cpp` e una quantization `IQ2_XXS UD`, ha evidenziato la capacità di gestire carichi di...

#Hardware #LLM On-Premise #DevOps
2026-04-12 LocalLLaMA

llama.cpp integra il supporto Speech-to-Text per i modelli Gemma-4

Il progetto open source llama.cpp, noto per l'inference efficiente di Large Language Models su hardware locale, ha annunciato l'integrazione del supporto Speech-to-Text (STT). Questa nuova funzionalità è compatibile con i modelli Gemma-4 E2A ed E4A, ...

#Hardware #LLM On-Premise #DevOps
2026-04-12 TechCrunch AI

La Terminologia degli LLM: Una Guida Essenziale per le Decisioni Strategiche

L'avanzamento dell'intelligenza artificiale ha introdotto un vasto lessico di nuovi termini. Per i decision-maker tech, comprendere queste definizioni è cruciale per navigare le complessità del settore, valutare le architetture di deployment e prende...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 The Next Web

L'importanza della qualità dei dati nei deployment AI su larga scala

La qualità dei dati è spesso un aspetto trascurato nelle architetture complesse, con team che investono mesi nello sviluppo di funzionalità e pipeline. Tuttavia, la scoperta tardiva di anomalie, spesso segnalate da figure non tecniche, comporta un au...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 TechCrunch AI

Claude di Anthropic al centro del dibattito alla HumanX Conference

Alla conferenza HumanX di San Francisco, incentrata sull'intelligenza artificiale, il Large Language Model Claude di Anthropic ha catalizzato l'attenzione. La sua prominenza sottolinea l'importanza crescente degli LLM nel panorama tecnicico e le comp...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-12 LocalLLaMA

MiniMax m2.7: LLM on-premise su Mac con prestazioni notevoli

Il modello MiniMax m2.7 emerge come una soluzione interessante per l'esecuzione di Large Language Models (LLM) in locale su hardware Apple Mac. Disponibile in versioni da 63GB e 89GB, ha dimostrato prestazioni competitive sul benchmark MMLU 200q, rag...

#Hardware #LLM On-Premise #DevOps
2026-04-12 LocalLLaMA

Unsloth MiniMax M2.7: Nuove Quantizzazioni GGUF per Deployment Efficienti

Unsloth ha rilasciato su Hugging Face una serie di versioni quantizzate del suo LLM MiniMax M2.7. Queste varianti, che spaziano da 1-bit a BF16, offrono diverse opzioni per ottimizzare l'impronta di memoria e le prestazioni, facilitando il deployment...

#Hardware #LLM On-Premise #DevOps
2026-04-12 OpenAI Blog

Compromissione degli strumenti di sviluppo: la risposta di OpenAI

OpenAI ha reagito a un attacco alla supply chain che ha interessato gli strumenti di sviluppo, implementando la rotazione dei certificati di firma del codice macOS e aggiornando le proprie applicazioni. L'azienda ha rassicurato che l'incidente non ha...

#Hardware #LLM On-Premise #DevOps
2026-04-12 LocalLLaMA

MiniMax-M2.7 debutta: un nuovo LLM per deployment locali

MiniMaxAI ha rilasciato MiniMax-M2.7, un nuovo Large Language Model ora disponibile su Hugging Face. L'annuncio, proveniente dalla comunità r/LocalLLaMA, suggerisce un focus sui deployment on-premise. Questo modello si inserisce nel crescente panoram...

#Hardware #LLM On-Premise #DevOps
2026-04-12 LocalLLaMA

Minimax M2.7: Un Nuovo LLM per le Infrastrutture Locali

Il rilascio di Minimax M2.7 introduce un nuovo Large Language Model nel panorama dell'intelligenza artificiale. Questo modello si posiziona come un'opzione rilevante per le aziende che esplorano deployment self-hosted, offrendo potenziali vantaggi in...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-11 LocalLLaMA

Alibaba ridefinisce la strategia AI: priorità ai ricavi sull'Open Source

Alibaba, il gigante tecnicico cinese, starebbe spostando la propria strategia nel campo dell'intelligenza artificiale. Secondo un report del Financial Times, l'azienda intende dare priorità alla generazione di ricavi rispetto al precedente approccio ...

#LLM On-Premise #DevOps
2026-04-11 LocalLLaMA

GLM: Nessun piano per versioni più compatte dei Large Language Models

La community tech sta monitorando l'evoluzione dei modelli GLM, in particolare la versione 5.1. Recentemente è emerso che non ci sono piani attuali per il rilascio di versioni più piccole di questi LLM, una notizia che ha implicazioni significative p...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic