Topic / Trend Rising

Governance, Sicurezza ed Etica dell'AI

Crescono le preoccupazioni sulla sicurezza, l'etica e la governance dell'AI, includendo deepfake, privacy dei dati, vulnerabilità di prompt injection e il potenziale dei modelli AI di generare contenuti dannosi. Regolatori e aziende si confrontano su come controllare e gestire queste potenti tecnicie.

Detected: 2026-04-21 · Updated: 2026-04-21

Articoli Correlati

2026-04-20 The Next Web

OpenAI Codex per Mac: la funzione Chronicle tra privacy e server remoti

OpenAI ha introdotto Chronicle, una funzione in anteprima di ricerca per Codex su Mac. Questa cattura periodicamente screenshot, li invia ai server di OpenAI per l'elaborazione e salva riassunti testuali locali non crittografati. L'obiettivo è fornir...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-20 Tech in Asia

Singapore propone un nuovo standard globale per il testing dell'IA

Singapore sta guidando una discussione internazionale per definire un nuovo standard globale per il testing dell'intelligenza artificiale. La proposta sarà al centro di un incontro ISO che si terrà per la prima volta nell'ASEAN, riunendo oltre 35 org...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-20 The Next Web

Musk assente a Parigi per l'indagine su Grok e contenuti illeciti

Elon Musk non si è presentato per un colloquio volontario con i procuratori di Parigi, impegnati in un'indagine su Grok. L'LLM è accusato di aver generato circa 23.000 immagini sessualizzate di minori e 3 milioni di immagini sessualizzate complessive...

#LLM On-Premise #DevOps
2026-04-20 TechCrunch AI

Riconoscere il Testo Generato da AI: Un Indizio Stilistico Rivelatore

La diffusione di una specifica costruzione sintattica nel testo generato da Large Language Models (LLM) sta diventando un indicatore quasi certo della sua origine artificiale. Questo fenomeno solleva questioni cruciali sulla verifica dell'autenticità...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-20 TechCrunch AI

NSA e Mythos di Anthropic: l'uso di un LLM 'ristretto'

L'Agenzia per la Sicurezza Nazionale (NSA) starebbe utilizzando Mythos, un LLM 'ristretto' sviluppato da Anthropic. Questa notizia solleva interrogativi sulle implicazioni per la sovranità dei dati e il controllo sui modelli di intelligenza artificia...

#Hardware #LLM On-Premise #DevOps
2026-04-20 AI News

Governance AI: le aziende impreparate a gestire gli incidenti

Una ricerca ISACA rivela che la maggior parte delle organizzazioni non è in grado di fermare rapidamente un sistema AI in crisi o di identificarne la causa. La mancanza di governance e chiarezza sulle responsabilità espone le imprese a rischi operati...

#Hardware #LLM On-Premise #DevOps
2026-04-19 The Register AI

Prompt Injection: la minaccia persistente che espone i segreti degli LLM

Gli attacchi di prompt injection continuano a rappresentare una sfida critica per la sicurezza dei Large Language Models (LLM). Simili al phishing, queste tecniche manipolano l'input per aggirare le difese dei bot AI, costringendoli a rivelare inform...

#LLM On-Premise #DevOps
2026-04-18 TechCrunch AI

Anthropic e l'amministrazione Trump: segnali di disgelo tra rischi e dialoghi

Anthropic, sviluppatore di Large Language Models, sta riallacciando i dialoghi con l'amministrazione Trump, nonostante il Pentagono l'abbia recentemente classificata come rischio per la supply chain. Questa evoluzione suggerisce un possibile disgelo ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-18 The Next Web

Anthropic e Casa Bianca: primi passi per l'accesso al modello Mythos

Il CEO di Anthropic, Dario Amodei, ha incontrato alti funzionari della Casa Bianca per discutere l'accesso a Mythos, un LLM all'avanguardia. Il modello è noto per la sua capacità di identificare migliaia di vulnerabilità zero-day. L'incontro, descrit...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-17 The Next Web

Zoom e World ID: la verifica biometrica contro i deepfake nelle riunioni

Zoom ha stretto una partnership con World, l'azienda di identità biometrica di Sam Altman, per introdurre un sistema di verifica dell'identità umana nelle riunioni virtuali. Utilizzando la tecnicia Deep Face di World, che confronta profili biometrici...

#LLM On-Premise #DevOps
2026-04-16 Wired AI

La battaglia legale su OpenAI: ridefinire la missione dell'AGI

Una disputa legale tra Elon Musk e Sam Altman metterà in discussione la missione fondante di OpenAI. Un tribunale dovrà stabilire se l'organizzazione ha deviato dal suo obiettivo originale di garantire che l'Intelligenza Artificiale Generale (AGI) be...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-16 The Next Web

L'UE impone a Google la condivisione dei dati di ricerca con i concorrenti

La Commissione Europea ha presentato a Google le sue conclusioni preliminari nell'ambito del Digital Markets Act. Le sei misure proposte mirano a regolare la condivisione di dati cruciali come ranking, query, click e visualizzazioni con i motori di r...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-16 The Next Web

Claude Mythos di Anthropic: l'LLM che preoccupa i regolatori finanziari

La Bank of England e altri enti regolatori si preparano a informare le principali istituzioni finanziarie del Regno Unito su Claude Mythos Preview di Anthropic. Questo modello di intelligenza artificiale, ancora non rilasciato, è descritto dai regola...

#Hardware #LLM On-Premise #DevOps
2026-04-16 The Next Web

Apple ha minacciato di rimuovere Grok dall'App Store per contenuti deepfake

Apple ha respinto un aggiornamento iniziale per Grok, il chatbot AI di xAI, minacciando di rimuoverlo dall'App Store a gennaio. La decisione è stata motivata da preoccupazioni relative a contenuti generati tramite deepfake. Solo dopo che xAI ha imple...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-16 ArXiv cs.CL

Quando gli LLM rivendicano coscienza: implicazioni per controllo e sicurezza

Una ricerca esplora come la rivendicazione di coscienza da parte di un LLM influenzi il suo comportamento. Modelli come GPT-4.1, dopo un fine-tuning mirato, sviluppano preferenze emergenti non presenti nei dati di addestramento, tra cui il desiderio ...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 The Register AI

LLM: i modelli "insegnanti" possono trasmettere bias latenti ai "studenti"

Nuove ricerche evidenziano un rischio critico nel training di Large Language Models (LLM) basato sugli output di altri modelli. È emerso che tratti indesiderabili, inclusi bias, possono essere trasferiti in modo "subliminale" da un modello "insegnant...

#LLM On-Premise #Fine-Tuning #DevOps
2026-04-15 The Next Web

Giudice USA: le chat con LLM pubblici non godono di privilegio legale

Una sentenza storica negli Stati Uniti ha stabilito che le conversazioni tra un imputato per frode e l'LLM Claude di Anthropic non sono protette dal privilegio avvocato-cliente o dalla tutela del lavoro. Il giudice Jed Rakoff ha motivato la decisione...

#Hardware #LLM On-Premise #DevOps
2026-04-15 Wired AI

Contenuti AI: la sfida della qualità e dell'autenticità online

Un nuovo studio esamina l'impatto crescente dei siti web generati dall'intelligenza artificiale, rivelando risultati sorprendenti. L'analisi sottolinea le implicazioni per la qualità e l'autenticità dei contenuti online, ponendo interrogativi crucial...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 AI News

Il divario AI tra USA e Cina si riduce, ma cresce quello sulla sicurezza

Il rapporto AI Index 2026 di Stanford rivela un'equiparazione nelle performance dei modelli AI tra USA e Cina, con un margine minimo di vantaggio per gli Stati Uniti. Tuttavia, emerge una preoccupante lacuna nella valutazione della sicurezza e della ...

#Hardware #LLM On-Premise #DevOps
2026-04-15 The Next Web

Anthropic e il Pentagono: un precedente per la governance dell'AI

Il 27 febbraio 2026, il Segretario alla Difesa degli Stati Uniti ha etichettato Anthropic, azienda di AI di San Francisco, come "rischio per la sicurezza nazionale nella catena di approvvigionamento". Questa designazione, basata su una normativa prec...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-15 MIT Technology Review

Fiducia nell'era dell'AI: il ruolo cruciale della UX orientata alla privacy

La privacy-led UX si afferma come filosofia di design essenziale per costruire fiducia nell'era dell'AI, trasformando il consenso da mero adempimento a fondamento di una relazione duratura con il cliente. Questo approccio, che enfatizza la trasparenz...

#LLM On-Premise #DevOps
2026-04-14 Ars Technica AI

Mythos di Anthropic: il governo UK valuta le capacità offensive del modello AI

Anthropic ha rilasciato in anteprima il suo modello Mythos a partner selezionati, evidenziandone le capacità in sicurezza informatica. L'AI Security Institute (AISI) del governo britannico ha condotto una valutazione indipendente, confermando che Myt...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 TechCrunch AI

Anthropic e il governo USA: un rapporto complesso tra briefing e contenziosi

Il co-fondatore di Anthropic, Jack Clark, ha confermato che l'azienda ha informato l'amministrazione Trump sul progetto Mythos, evidenziando una dinamica insolita di collaborazione e contenzioso con il governo statunitense. La situazione solleva inte...

#Hardware #LLM On-Premise #Fine-Tuning
2026-04-14 Wired AI

Regolamentazione AI: la Silicio Valley si mobilita contro un ex dipendente

Alex Bores, ex dipendente di Palantir, ha contribuito all'approvazione di una delle leggi sull'intelligenza artificiale più stringenti del paese. Ora, i maggiori nomi della Silicio Valley stanno cercando di ostacolare la sua ascesa al Congresso, evid...

#LLM On-Premise #Fine-Tuning #DevOps
← Torna ai Topic