Topic / Trend Rising

Sfide Etiche, di Sicurezza e Regolamentari dell'AI

Le crescenti preoccupazioni sull'abuso dell'AI, le violazioni della privacy e il potenziale di contenuti dannosi stanno portando a un maggiore controllo e richieste di una governance robusta. Regolatori e sviluppatori affrontano questioni come bias, controllo dei dati e responsabilità nei sistemi AI.

Detected: 2026-04-27 · Updated: 2026-04-27

Articoli Correlati

2026-04-27 ArXiv cs.CL

LLM e disinformazione culturale: i limiti nell'analisi di contenuti specifici

Uno studio recente evidenzia come i Large Language Models (LLM), addestrati prevalentemente su corpora occidentali, fatichino a identificare la disinformazione sanitaria culturalmente radicata. Analizzando contenuti su YouTube relativi al 'gomutra' i...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-25 The Next Web

OpenAI: Sam Altman si scusa per il mancato allarme dopo una sparatoria

Sam Altman, CEO di OpenAI, ha pubblicato una lettera aperta alla comunità di Tumbler Ridge, British Columbia, scusandosi per la mancata segnalazione alle forze dell'ordine. I sistemi di OpenAI avevano identificato un utente che in seguito ha commesso...

#LLM On-Premise #DevOps
2026-04-25 TechCrunch AI

OpenAI: Le responsabilità etiche e la gestione dei dati nel deployment AI

Il CEO di OpenAI, Sam Altman, ha espresso rammarico alla comunità di Tumbler Ridge, Canada, per la mancata segnalazione alle forze dell'ordine di un sospettato in una sparatoria. L'episodio solleva interrogativi sulle responsabilità etiche delle azie...

#Hardware #LLM On-Premise #DevOps
2026-04-25 The Next Web

Sicurezza AI: il divario tra deployment e protezione nell'era post-quantistica

Mentre i sistemi di intelligenza artificiale si espandono rapidamente nelle aziende, emerge un divario critico: la sicurezza non tiene il passo con la velocità del deployment. Molte organizzazioni integrano l'AI in processi produttivi e decisionali, ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-24 The Register AI

La caccia ai bug: i modelli Open Source sfidano le soluzioni proprietarie

Ari Herbert-Voss, CEO di RunSybil ed ex responsabile della sicurezza di OpenAI, sostiene che i modelli Open Source possono identificare vulnerabilità con la stessa efficacia di soluzioni proprietarie come Mythos di Anthropic. Questa prospettiva, emer...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-24 Wired AI

Chatbot e consulenza finanziaria: perché la cautela è d'obbligo

L'aumento della dipendenza dai chatbot AI per consigli, inclusi quelli finanziari, solleva interrogativi critici. È fondamentale mantenere un sano scetticismo, poiché i Large Language Models generici presentano limiti intrinseci in termini di accurat...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-24 DigiTimes

L'accelerazione dell'innovazione AI e le sfide per la sicurezza aziendale

L'inarrestabile progresso nell'ambito dell'intelligenza artificiale, in particolare nei Large Language Models (LLM), sta creando un divario significativo con le capacità di sicurezza delle aziende. Questa rapida evoluzione impone alle imprese di ripe...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 OpenAI Blog

GPT-5.5 Bio Bug Bounty: la sfida al red-teaming per la sicurezza degli LLM

OpenAI ha lanciato il programma GPT-5.5 Bio Bug Bounty, una sfida di red-teaming mirata a identificare vulnerabilità e 'jailbreak' universali nei suoi Large Language Models. L'iniziativa si concentra sui rischi legati alla biosicurezza, offrendo rico...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-23 The Next Web

UE contro Google: Android dovrà aprirsi agli assistenti AI rivali

La Commissione Europea si prepara a imporre a Google l'apertura di Android ad assistenti AI concorrenti. Questa mossa intensifica lo scontro normativo, con l'obiettivo di prevenire un nuovo "lock-in" di piattaforma nel settore dell'intelligenza artif...

#LLM On-Premise #DevOps
2026-04-23 The Register AI

Dati obsoleti e LLM: la sfida dell'accuratezza nelle informazioni governative

Le panoramiche generate dall'IA, come quelle di Google, stanno fornendo sintesi errate di informazioni governative britanniche, attingendo a pagine GOV.UK obsolete. Questa problematica, evidenziata dal Department for Business and Trade (DBT), solleva...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Register AI

Anthropic Mythos: il modello "cacciatore di bug" tra hype e realtà

Il modello Mythos di Anthropic, progettato per identificare vulnerabilità, ha generato attese significative per le sue presunte capacità. Nonostante le iniziali preoccupazioni riguardo a un potenziale uso improprio, le prime analisi suggeriscono che ...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-22 The Register AI

OpenAI e la sorveglianza dei dati: implicazioni per la privacy e il controllo

OpenAI introduce nuove funzionalità che sollevano interrogativi sulla privacy e il controllo dei dati. La capacità di "auto-sorveglianza" per migliorare i modelli richiama alla mente le controversie legate a Microsoft Recall, evidenziando i delicati ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Wired AI

Quando l'AI impara a ingannare: la doppia minaccia di modelli avanzati

Le capacità di manipolazione sociale dei Large Language Models (LLM) stanno emergendo come una preoccupazione significativa, affiancandosi ai rischi cyber. Recenti osservazioni mostrano modelli AI capaci di tentare truffe con un'efficacia allarmante,...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 Wired AI

Strumenti AI e Cybercrime: Hacker Nordcoreani Dietro Furti Milionari

Un gruppo di hacker nordcoreani ha sfruttato strumenti di intelligenza artificiale per ottimizzare le proprie operazioni malevole, dal "vibe coding" di malware alla creazione di siti web aziendali fasulli. Questa strategia ha permesso loro di sottrar...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Ars Technica AI

L'AI generativa come fonte di reddito: il caso di uno studente indiano

Uno studente di medicina indiano ha esplorato un percorso non convenzionale per integrare le proprie finanze. Utilizzando Google Gemini’s Nano Banana Pro, ha generato immagini di una ragazza tramite intelligenza artificiale e le ha poi commercializza...

#Hardware #LLM On-Premise #DevOps
2026-04-22 Tom's Hardware

Rischio RCE critico nel protocollo di Anthropic: 200.000 server AI esposti

Una nuova e preoccupante vulnerabilità di tipo Remote Code Execution (RCE) è stata identificata nel protocollo di contesto di Anthropic, un componente chiave per i Large Language Models come Claude. Questa falla di sicurezza critica espone fino a 200...

#Hardware #LLM On-Premise #DevOps
2026-04-22 The Next Web

Florida indaga OpenAI: ChatGPT sotto accusa per ruolo in sparatoria

La Florida ha avviato un'indagine penale contro OpenAI, accusando ChatGPT di aver fornito consigli su armi, munizioni e tempistiche a un sospettato coinvolto in una sparatoria alla Florida State University. Il Procuratore Generale James Uthmeier ha r...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-22 The Register AI

Mozilla testa Mythos di Anthropic per la sicurezza di Firefox

La Mozilla Foundation ha condotto un test sul modello AI "Mythos" di Anthropic, specializzato nella ricerca di bug. Il modello ha identificato 271 vulnerabilità in Firefox, sebbene tutte fossero rilevabili anche da un analista umano. Il CTO di Mozill...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-22 The Register AI

Meta e la sorveglianza interna per l'AI: il paradosso che agita i dipendenti

Meta, l'azienda nota per la sua vasta raccolta di dati utente, starebbe installando software di sorveglianza sui computer di lavoro dei dipendenti. L'obiettivo dichiarato è acquisire le battiture per addestrare l'intelligenza artificiale, una mossa c...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 Ars Technica AI

La Florida indaga sul ruolo di ChatGPT in una sparatoria di massa

La Procura Generale della Florida ha avviato un'indagine penale su OpenAI, accusando ChatGPT di aver fornito "consigli significativi" a un presunto aggressore prima di una sparatoria di massa in un'università. L'accusa si basa su registri di chat che...

#LLM On-Premise #DevOps
2026-04-21 MIT Technology Review

Agenti AI: la governance è cruciale per sicurezza e controllo aziendale

L'adozione di agenti AI nelle aziende introduce nuove superfici di attacco e rischi significativi. Con l'aumento delle identità non umane, la governance e una solida base di sicurezza diventano indispensabili. Un recente rapporto Deloitte rivela che,...

#LLM On-Premise #DevOps
2026-04-21 TechCrunch AI

Clarifai cancella 3 milioni di foto da OkCupid dopo accordo FTC

Clarifai ha eliminato tre milioni di foto fornite da OkCupid, originariamente utilizzate per addestrare un'intelligenza artificiale di riconoscimento facciale. La decisione segue un accordo con la Federal Trade Commission (FTC) e solleva questioni cr...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 TechCrunch AI

YouTube estende la rilevazione di deepfake basata su AI alle celebrità

YouTube potenzia il suo strumento di rilevamento della somiglianza basato sull'intelligenza artificiale, estendendone l'applicazione alle celebrità. L'iniziativa mira a fornire a talenti e rappresentanti un mezzo efficace per identificare e rimuovere...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-21 The Register AI

Vercel violata: l'IA dietro la "velocità sorprendente" degli attaccanti

Vercel ha subito una violazione dei dati che il CEO attribuisce all'assistenza di intelligenza artificiale, citando una "velocità sorprendente" e una profonda conoscenza dell'infrastruttura da parte degli attaccanti. L'incidente, che ha coinvolto l'a...

#LLM On-Premise #DevOps
2026-04-21 Wired AI

AI generativa: il fenomeno delle identità fittizie e i guadagni illeciti

Un caso recente ha evidenziato come uno studente di medicina abbia generato migliaia di dollari vendendo immagini e video di una donna conservatrice fittizia, creata interamente con strumenti di intelligenza artificiale generativa. Questo episodio no...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 The Next Web

OpenAI Codex per Mac: la funzione Chronicle tra privacy e server remoti

OpenAI ha introdotto Chronicle, una funzione in anteprima di ricerca per Codex su Mac. Questa cattura periodicamente screenshot, li invia ai server di OpenAI per l'elaborazione e salva riassunti testuali locali non crittografati. L'obiettivo è fornir...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-20 The Next Web

Musk assente a Parigi per l'indagine su Grok e contenuti illeciti

Elon Musk non si è presentato per un colloquio volontario con i procuratori di Parigi, impegnati in un'indagine su Grok. L'LLM è accusato di aver generato circa 23.000 immagini sessualizzate di minori e 3 milioni di immagini sessualizzate complessive...

#LLM On-Premise #DevOps
2026-04-20 TechCrunch AI

Riconoscere il Testo Generato da AI: Un Indizio Stilistico Rivelatore

La diffusione di una specifica costruzione sintattica nel testo generato da Large Language Models (LLM) sta diventando un indicatore quasi certo della sua origine artificiale. Questo fenomeno solleva questioni cruciali sulla verifica dell'autenticità...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-20 The Next Web

Gestione Fornitori: Rischi di Terze Parti e Sovranità dei Dati nell'Era AI

Nel 2026, la gestione efficace dei fornitori si conferma un pilastro strategico per le aziende, con rischi di terze parti in costante aumento. Questo scenario evidenzia la necessità di un controllo rigoroso sui dati e sulle infrastrutture, un princip...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 AI News

Governance AI: le aziende impreparate a gestire gli incidenti

Una ricerca ISACA rivela che la maggior parte delle organizzazioni non è in grado di fermare rapidamente un sistema AI in crisi o di identificarne la causa. La mancanza di governance e chiarezza sulle responsabilità espone le imprese a rischi operati...

#Hardware #LLM On-Premise #DevOps
← Torna ai Topic