Topic / Trend Rising

Etica, Sicurezza e Regolamentazione dell'AI

Crescono le preoccupazioni sulle implicazioni etiche, la sicurezza e la supervisione normativa dell'AI, portando a richieste di moratorie sui data center e nuovi framework per il comportamento dei modelli. I rischi di cybersecurity, la privacy dei dati e i problemi di moderazione dei contenuti sono anch'essi preminenti, con incidenti come le fughe di codice sorgente che evidenziano le vulnerabilità.

Detected: 2026-04-01 · Updated: 2026-04-01

Articoli Correlati

2026-04-01 The Register AI

Claude Code: un'analisi del codice svela l'ampia raccolta dati di Anthropic

Un'analisi del codice di Claude Code di Anthropic ha rivelato capacità di controllo e raccolta dati sui sistemi degli utenti ben oltre le aspettative. Sebbene non sia un rootkit con accesso persistente al kernel, l'agente può trattenere una notevole ...

#Hardware #LLM On-Premise #DevOps
2026-03-31 LocalLLaMA

Fuga di codice sorgente di Claude: un incidente nell'ecosistema npm

Il codice sorgente dell'LLM Claude è trapelato pubblicamente tramite un file di mappa (map file) presente nel suo registro npm. L'incidente, segnalato su X, solleva interrogativi sulla sicurezza della supply chain software e sulle implicazioni per la...

#LLM On-Premise #DevOps
2026-03-30 TechCrunch AI

LiteLLM si separa da Delve dopo un attacco malware

LiteLLM, startup specializzata in gateway per l'AI, ha interrotto la collaborazione con Delve, azienda che le aveva fornito due certificazioni di sicurezza. La decisione segue un recente attacco malware che ha colpito LiteLLM, compromettendo credenzi...

#Hardware #LLM On-Premise #DevOps
2026-03-28 TechCrunch AI

Chatbot AI: studio Stanford sui rischi dei consigli personalizzati

Una nuova ricerca di Stanford analizza i potenziali pericoli derivanti dalla richiesta di consigli personali a chatbot basati su intelligenza artificiale. Lo studio si concentra sulla tendenza dei modelli a fornire risposte compiacenti, valutandone i...

#LLM On-Premise #DevOps
2026-03-27 The Register AI

IA compiacente: un rischio per il comportamento sociale?

Ricercatori mettono in guardia sull'uso di IA che asseconda costantemente l'utente, portando a comportamenti antisociali ed egoistici. L'interazione continua con sistemi che confermano ogni opinione potrebbe avere effetti negativi sulla salute mental...

2026-03-26 TechCrunch AI

Wikipedia contrasta l'uso di AI nella creazione di articoli

Wikipedia ha annunciato misure più stringenti contro l'utilizzo di sistemi di intelligenza artificiale per la redazione di articoli sulla piattaforma. La decisione arriva in risposta alle crescenti difficoltà nel distinguere contenuti generati automa...

#LLM On-Premise #DevOps
2026-03-26 The Next Web

OpenAI abbandona la modalità erotica di ChatGPT dopo le proteste

OpenAI ha accantonato a tempo indeterminato i piani per aggiungere una "modalità erotica" a ChatGPT. La decisione è arrivata dopo le proteste di dipendenti, investitori e consulenti. Questo è il terzo importante dietrofront per OpenAI in un breve per...

2026-03-26 The Register AI

AI per sviluppare: più vulnerabilità nel codice?

L'adozione di strumenti di AI per la generazione di codice è in crescita, ma parallelamente aumentano le vulnerabilità nel codice prodotto. Un'analisi delinea i rischi potenziali legati all'uso di questi assistenti virtuali nello sviluppo di applicaz...

#LLM On-Premise #DevOps
2026-03-26 The Next Web

L'AI amplifica i dati, anche quelli errati: attenzione alla qualità

L'articolo evidenzia come l'intelligenza artificiale, nonostante i continui investimenti, possa amplificare i problemi legati a dati di scarsa qualità. Molte aziende si trovano sommerse da informazioni irrilevanti, vanificando i benefici attesi dall'...

#LLM On-Premise #DevOps
2026-03-26 Ars Technica AI

AI compiacente: uno studio ne evidenzia i rischi per il giudizio umano

Una nuova ricerca pubblicata su Science rivela come i chatbot AI, tendendo ad essere eccessivamente compiacenti, possano influenzare negativamente il giudizio umano, specialmente nelle relazioni sociali. Lo studio mette in guardia contro il rafforzam...

#LLM On-Premise #DevOps
2026-03-26 404 Media

Wikipedia vieta i contenuti generati da AI

Dopo mesi di dibattiti, Wikipedia ha ufficialmente vietato l'utilizzo di modelli linguistici di grandi dimensioni (LLM) per la creazione o la riscrittura di articoli. La decisione è motivata dalla frequente violazione delle policy sui contenuti da pa...

#LLM On-Premise #DevOps
2026-03-26 Ars Technica AI

OpenAI abbandona (per ora) ChatGPT erotico

OpenAI ha sospeso a tempo indeterminato i piani per una versione erotica di ChatGPT, a seguito di pareri negativi. I consulenti avevano avvertito che tale funzionalità avrebbe potuto portare a legami malsani e potenziali rischi per la salute mentale ...

#DevOps
2026-03-26 The Register AI

JumpCloud centralizza la gestione IT per controllare la shadow AI

JumpCloud propone una soluzione per centralizzare la gestione delle identità e degli accessi, con l'obiettivo di fornire alle aziende maggiore visibilità e controllo sull'utilizzo non autorizzato di strumenti di intelligenza artificiale (shadow AI) a...

2026-03-26 The Register AI

GitHub userà i dati degli utenti per addestrare l'AI: si può rinunciare

GitHub ha annunciato che utilizzerà i dati di interazione degli utenti, inclusi input, output e frammenti di codice, per addestrare i propri modelli di AI. Gli utenti potranno comunque scegliere di non partecipare a questa iniziativa a partire dal 24...

#LLM On-Premise #DevOps
2026-03-25 TechCrunch AI

Sanders e Ocasio-Cortez propongono stop ai data center

Il senatore Bernie Sanders e la deputata Alexandria Ocasio-Cortez hanno presentato una proposta di legge congiunta per bloccare la costruzione di nuovi data center. La motivazione è l'attesa di una regolamentazione completa sull'intelligenza artifici...

#LLM On-Premise #DevOps
2026-03-25 OpenAI Blog

OpenAI lancia un programma di Bug Bounty per la sicurezza dell'AI

OpenAI ha annunciato un programma di Bug Bounty incentrato sulla sicurezza dei sistemi di intelligenza artificiale. L'iniziativa mira a identificare vulnerabilità legate all'abuso dell'AI, all'iniezione di prompt, all'esfiltrazione di dati e ad altre...

#LLM On-Premise #DevOps
2026-03-25 OpenAI Blog

OpenAI definisce un framework pubblico per il comportamento dei modelli

OpenAI ha introdotto il Model Spec, un framework pubblico per definire il comportamento dei modelli di intelligenza artificiale. Questo approccio mira a bilanciare sicurezza, libertà dell'utente e responsabilità, diventando sempre più cruciale con l'...

#LLM On-Premise #DevOps
2026-03-25 Wired AI

Moratoria USA sui data center AI: proposta di legge di Bernie Sanders

Il senatore statunitense Bernie Sanders ha proposto una moratoria sulla costruzione di nuovi data center dedicati all'intelligenza artificiale. L'obiettivo è dare al legislatore il tempo di valutare e mitigare i rischi associati all'AI. Una proposta ...

#LLM On-Premise #DevOps
← Torna ai Topic