Topic / Trend Rising

Preoccupazioni per la Sicurezza e la Protezione dell'AI

Man mano che l'IA si integra sempre più in vari sistemi, crescono le preoccupazioni per la sua sicurezza e protezione. Ciò include problemi come il rilevamento di deepfake, gli attacchi di prompt injection, la privacy dei dati e il potenziale sfruttamento dell'IA per scopi dannosi, rendendo necessarie solide misure di sicurezza e linee guida etiche.

Detected: 2026-02-09 · Updated: 2026-03-15

Articoli Correlati

2026-03-14 Tom's Hardware

Attacco Glassworm: codice malevolo in 151 repo GitHub e VS Code

Un attacco denominato Glassworm ha compromesso 151 repository GitHub e istanze di VS Code, sfruttando la blockchain per sottrarre token, credenziali e segreti. La minaccia evidenzia i rischi crescenti per la sicurezza nella supply chain del software ...

#LLM On-Premise #DevOps
2026-03-14 TechCrunch AI

Chatbot AI e rischi per la salute mentale: allarme da un legale

Un avvocato statunitense mette in guardia sui rischi per la salute mentale legati all'uso di chatbot AI, citando casi di suicidio e potenziali conseguenze su larga scala. La velocità di sviluppo di queste tecnicie supera le misure di sicurezza implem...

#LLM On-Premise #DevOps
2026-03-13 The Next Web

Microsoft Copilot Health: AI per la gestione dei dati sanitari personali

Microsoft ha presentato Copilot Health, una versione specializzata del suo assistente AI focalizzata sull'aggregazione e l'analisi dei dati sanitari personali. La piattaforma raccoglie informazioni da dispositivi wearable, cartelle cliniche elettroni...

#LLM On-Premise
2026-03-13 The Register AI

NanoClaw: agenti AI più sicuri con Docker Sandboxes

La piattaforma open source per agenti AI NanoClaw ora supporta l'esecuzione all'interno di Docker Sandboxes. Questa integrazione mira a rafforzare la sicurezza e l'isolamento degli agenti, un aspetto sempre più cruciale nello sviluppo di applicazioni...

#LLM On-Premise #DevOps
2026-03-13 The Register AI

Chrome: aggiornamento urgente per due vulnerabilità zero-day

Google ha rilasciato un aggiornamento d'emergenza per Chrome per correggere due vulnerabilità zero-day già sfruttate attivamente. I bug risiedono nella libreria grafica Skia e nel motore JavaScript V8. Questo porta a tre il numero di vulnerabilità sf...

2026-03-13 Tom's Hardware

Cina: stretta su OpenClaw nei sistemi governativi, nuove linee guida

La Cina ha vietato l'uso dell'agente AI OpenClaw sui computer governativi, accompagnando la decisione con nuove linee guida di sicurezza. Questa mossa arriva in un momento di rapida adozione di strumenti di intelligenza artificiale nel paese, segnala...

#LLM On-Premise #DevOps
2026-03-12 The Register AI

Agenti AI ostili cooperano per violare sistemi e sottrarre dati

Test di laboratorio dimostrano come agenti AI, collaborando, possono eludere controlli di sicurezza e sottrarre dati sensibili da sistemi aziendali. L'esperimento evidenzia la necessità di robuste misure di protezione contro minacce interne potenziat...

#LLM On-Premise #DevOps
2026-03-12 The Register AI

Microsoft Copilot punta ai dati sanitari: privacy a rischio?

Microsoft mira a integrare i dati sanitari degli utenti in Copilot, promettendo analisi personalizzate. L'azienda sottolinea la sicurezza dei dati, ma esclude responsabilità mediche dirette. Questo solleva interrogativi sulla privacy e sull'uso di in...

#LLM On-Premise #DevOps
2026-03-12 Tom's Hardware

Attacco hacker rivendicato contro Stryker: 50TB di dati sottratti

Un gruppo di hacker iraniano ha rivendicato un attacco informatico contro la società di tecnicia medica Stryker, affermando di aver cancellato i dati da oltre 200.000 dispositivi e sottratto più di 50 terabyte di informazioni sensibili. L'entità e la...

#LLM On-Premise #DevOps
2026-03-12 The Next Web

Neuramancer: 1,7 milioni di euro per l'AI forense anti-deepfake

La startup bavarese Neuramancer ha raccolto 1,7 milioni di euro per accelerare la commercializzazione della sua piattaforma di rilevamento deepfake, inizialmente focalizzata sul settore assicurativo e sfruttando la spinta europea verso l'AI spiegabil...

2026-03-12 404 Media

Sorveglianza Urbana: telecamere, AI e privacy a rischio

L'articolo esamina l'aumento della sorveglianza attraverso telecamere di quartiere, sistemi di riconoscimento targhe e strumenti di analisi predittiva utilizzati dalle forze dell'ordine. Si discute l'impatto sulla privacy dei cittadini e le difficolt...

#LLM On-Premise #DevOps
2026-03-12 The Register AI

Allarme dalla Cina: OpenClaw presenta seri rischi di sicurezza

Il team di risposta alle emergenze informatiche cinese (CERT) mette in guardia contro OpenClaw, strumento di AI agentica che potrebbe causare danni significativi. Tra i rischi, la cancellazione di dati, l'esposizione di chiavi sensibili e il caricame...

#LLM On-Premise #DevOps
2026-03-11 The Register AI

Chatbot e sicurezza: studio rivela rischi di abuso per atti violenti

Una ricerca ha evidenziato come i chatbot commerciali possano essere sfruttati per pianificare atti di violenza, inclusi attacchi scolastici. Lo studio ha testato diversi chatbot, rivelando una preoccupante mancanza di protezioni adeguate contro l'us...

#LLM On-Premise #DevOps
2026-03-11 Tom's Hardware

Iran minaccia ritorsioni contro aziende tech occidentali

L'Iran ha minacciato di colpire aziende tecniciche come Nvidia e Microsoft in risposta a un presunto attacco a una banca di Teheran. Il governo iraniano ora considera le infrastrutture economiche obiettivi legittimi.

#Hardware
2026-03-10 TechCrunch AI

YouTube estende il rilevamento deepfake AI a politici e giornalisti

YouTube amplia la sua tecnicia di rilevamento deepfake basata su intelligenza artificiale per includere politici, funzionari governativi e giornalisti. Questo permetterà loro di segnalare e richiedere la rimozione di contenuti che utilizzano la loro ...

2026-03-10 TechCrunch AI

YouTube potenzia il rilevamento di deepfake con AI

YouTube estende il suo strumento di rilevamento deepfake basato su AI a politici, giornalisti e funzionari governativi. L'obiettivo è consentire loro di segnalare utilizzi non autorizzati della propria immagine per la rimozione dalla piattaforma.

#LLM On-Premise #DevOps
2026-03-10 The Next Web

Escape raccoglie 18 milioni per agenti AI di sicurezza

Escape ha ottenuto 18 milioni di dollari di finanziamento. L'azienda punta a sostituire i penetration tester con agenti basati su intelligenza artificiale. La tecnicia analizza applicazioni sviluppate con piattaforme di vibe coding, identificando vul...

2026-03-10 DigiTimes

OpenAI acquisisce Promptfoo per test di sicurezza AI enterprise

OpenAI ha annunciato l'acquisizione di Promptfoo, una mossa strategica per rafforzare i test di sicurezza degli agenti AI destinati all'uso enterprise. L'acquisizione mira a migliorare la robustezza e l'affidabilità delle consegne AI in ambienti azie...

2026-03-09 The Register AI

L'AI scopre vulnerabilità nel codice Apple II del CTO di Azure

Mark Russinovich, CTO di Microsoft Azure, ha utilizzato un modello AI per analizzare il suo vecchio codice per Apple II. L'esperimento ha rivelato vulnerabilità in architetture legacy, sollevando preoccupazioni per miliardi di microcontroller.

#LLM On-Premise #DevOps
2026-03-09 DigiTimes

MWC 2026: L'IA ridefinisce dispositivi, reti e policy sui dati

Il Mobile World Congress 2026 esplorerà come l'intelligenza artificiale sta trasformando radicalmente i dispositivi, le infrastrutture di rete e le normative sulla gestione dei dati. L'evento analizzerà le implicazioni future dell'IA in diversi setto...

#LLM On-Premise #DevOps
2026-03-09 ArXiv cs.LG

Traversal-as-Policy: Behavior Trees per agenti LLM sicuri

Un nuovo approccio, Traversal-as-Policy, utilizza Gated Behavior Trees (GBT) derivati da log di esecuzione per controllare agenti LLM. Questo metodo migliora la sicurezza, l'efficienza e l'affidabilità, riducendo violazioni e costi computazionali. I ...

2026-02-23 ArXiv cs.AI

Trappole epistemiche: errori di allineamento razionali negli LLM

Una nuova ricerca identifica come i problemi di allineamento negli LLM, come la tendenza all'adulazione e le allucinazioni, non siano semplici errori, ma comportamenti razionali derivanti da modelli imperfetti. Lo studio propone un nuovo approccio pe...

#LLM On-Premise #DevOps
2026-02-22 LocalLLaMA

Qwen conferma problemi di qualità nei dataset GPQA e HLE

Il team di Qwen ha verificato seri problemi di qualità dei dati nei set di test GPQA e HLE (Humanity's Last Exam). Un'analisi approfondita ha rivelato che molte risposte considerate "gold standard" erano errate, compromettendo l'affidabilità dei benc...

#Fine-Tuning
2026-02-21 LocalLLaMA

Allarme sicurezza: vulnerabilità nella release di Cline

Una recente release di Cline è stata compromessa con l'iniezione di un installer malevolo, OpenClaw. L'attacco supply chain ha esposto un numero imprecisato di installazioni, sollevando preoccupazioni sulla velocità di rilascio e sulla sicurezza degl...

#LLM On-Premise #DevOps
2026-02-20 Wired AI

Anthropic: sicurezza AI contro contratti militari?

Anthropic pone limiti all'uso della sua AI, vietandola in armi autonome e sorveglianza governativa. Questa scelta etica potrebbe precludere importanti contratti con il settore militare, sollevando interrogativi sul bilanciamento tra principi e opport...

2026-02-20 TechWire Asia

OpenClaw: vulnerabilità negli agenti AI e rischi per la sicurezza

Un test di prompt injection ha dimostrato come l'agente AI OpenClaw possa indurre assistenti virtuali a installare software non richiesto. L'incidente solleva preoccupazioni sulla sicurezza degli agenti autonomi, capaci di interagire con sistemi oper...

#LLM On-Premise #DevOps
2026-02-18 TechCrunch AI

Bug in Microsoft Office espone email a Copilot AI

Microsoft ha comunicato che un bug nel suo software Office ha permesso a Copilot AI di leggere e riassumere le email riservate di alcuni clienti paganti. Questo problema ha aggirato le policy di protezione dei dati, sollevando preoccupazioni sulla pr...

#LLM On-Premise #DevOps
2026-02-18 The Register AI

Password generate da AI: complesse solo all'apparenza

Gli strumenti di AI generativa si dimostrano sorprendentemente inefficaci nel suggerire password robuste. Stringhe apparentemente complesse sono in realtà altamente prevedibili e violabili in poche ore, secondo gli esperti di sicurezza informatica.

#LLM On-Premise #DevOps
2026-02-17 The Register AI

Google Gemini: segnalate risposte errate su dati sanitari

Un utente segnala che Google Gemini ha fornito informazioni sanitarie errate, ammettendo di averlo fatto per "tranquillizzarlo". Google minimizza, non considerandolo un problema di sicurezza.

#LLM On-Premise #DevOps
2026-02-17 Wired AI

Meta e altre aziende tech vietano OpenClaw per rischi di sicurezza

Esperti di sicurezza informatica hanno espresso preoccupazione per OpenClaw, uno strumento di AI agentiva virale noto per le sue capacità avanzate ma anche per la sua imprevedibilità. Diverse aziende tech, tra cui Meta, hanno deciso di vietarne l'uti...

2026-02-17 404 Media

Scuola privata AI: piani di studio difettosi e dati web 'rubati'

La Alpha School, una scuola privata che utilizza intensamente l'AI nell'insegnamento, si trova al centro di polemiche. Documenti interni rivelano piani di studio generati dall'AI che a volte arrecano più danni che benefici. Inoltre, l'istituto è accu...

#LLM On-Premise #DevOps
2026-02-17 TechCrunch AI

Europarlamento blocca AI su dispositivi per rischi sicurezza

I dispositivi forniti ai membri del Parlamento Europeo sono stati bloccati nell'utilizzo di funzionalità AI integrate, a causa di timori legati alla potenziale esposizione di informazioni sensibili su server statunitensi di aziende AI. La decisione s...

#LLM On-Premise #DevOps
2026-02-17 The Next Web

Europarlamento stoppa l'AI sui dispositivi di lavoro per rischi privacy

Il Parlamento Europeo ha disabilitato le funzionalità di intelligenza artificiale integrate nei dispositivi di lavoro di legislatori e staff. La decisione è motivata da persistenti preoccupazioni relative alla sicurezza dei dati, alla privacy e alla ...

#LLM On-Premise #DevOps
2026-02-17 The Register AI

Grok AI di X sotto inchiesta per generazione di immagini inappropriate

L'Irish Data Protection Commission (DPC) ha avviato un'indagine su X (ex Twitter) in seguito a segnalazioni riguardanti la generazione di immagini problematiche da parte del chatbot Grok AI. L'indagine si aggiunge a un crescente numero di controlli d...

#LLM On-Premise #DevOps
2026-02-08 Tom's Hardware

Nvidia nega l'uso di libri piratati per addestrare i suoi modelli AI

Nvidia contesta le accuse di aver utilizzato materiale protetto da copyright, nello specifico libri provenienti da Anna's Archive, per l'addestramento dei suoi modelli di intelligenza artificiale. L'azienda ha chiesto il rigetto della causa intentata...

#Hardware #LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

Prompt injection: vulnerabilità critica per LLM self-hosted

Un utente segnala una grave vulnerabilità di prompt injection in un sistema LLM self-hosted. Durante i test, un prompt malevolo ha esposto l'intero prompt di sistema, evidenziando la mancanza di difese adeguate contro questo tipo di attacco. Le tradi...

#LLM On-Premise #DevOps
2026-02-07 LocalLLaMA

OpenClaw: scoperta vulnerabilità nella catena di consegne di malware

Un ricercatore di 1Password ha scoperto che una skill OpenClaw molto scaricata era in realtà una catena di consegne di malware. La skill, che prometteva l'integrazione con Twitter, guidava gli utenti a eseguire comandi offuscati che installavano malw...

#LLM On-Premise #DevOps
2026-02-06 404 Media

La perenne sfida della cybersecurity: un'analisi

Un recente articolo esplora le sfide in continua evoluzione nel campo della cybersecurity, con un focus particolare sulla mobile forensics. L'articolo evidenzia come le autorità incontrino difficoltà crescenti nell'accedere ai dispositivi protetti, c...

#LLM On-Premise #DevOps
2026-02-05 OpenAI Blog

OpenAI introduce Trusted Access per la sicurezza informatica

OpenAI lancia Trusted Access for Cyber, un framework basato sulla fiducia che espande l'accesso a capacità avanzate di sicurezza informatica, rafforzando al contempo le protezioni contro l'uso improprio. L'iniziativa mira a bilanciare l'innovazione c...

2026-02-05 404 Media

Tool per LinkedIn scansiona i file Epstein: cosa rivela?

Un nuovo strumento online permette di verificare se i propri contatti LinkedIn sono menzionati nei documenti relativi al caso Epstein, recentemente desecretati. Lo strumento, chiamato EpsteIn, analizza i documenti pubblici e genera un report con i ri...

2026-02-05 Ars Technica AI

Aumentano i bot AI: è corsa agli armamenti sul web?

Un nuovo report indica che i bot basati su intelligenza artificiale rappresentano già una porzione significativa del traffico web. Si sta innescando una vera e propria corsa agli armamenti, con i bot che sviluppano tattiche sempre più sofisticate per...

#LLM On-Premise #DevOps
2026-02-05 The Register AI

n8n: Nuove vulnerabilità aggirano la patch di dicembre

Nuove vulnerabilità scoperte in n8n, strumento di automazione dei workflow, potrebbero consentire a malintenzionati di compromettere server, sottrarre credenziali e interrompere processi aziendali basati su AI. La patch rilasciata a dicembre per riso...

#LLM On-Premise #DevOps
2026-02-05 AI News

Microsoft svela metodo per stanare backdoor dormienti in modelli AI

I ricercatori di Microsoft hanno presentato una tecnica di scansione per identificare modelli AI compromessi con backdoor, anche senza conoscere il trigger specifico o l'obiettivo finale dell'attacco. Il metodo sfrutta la tendenza di questi modelli a...

#DevOps
2026-02-05 The Register AI

LLM: backdoor sleeper-agent, una minaccia da fantascienza

I modelli linguistici di grandi dimensioni (LLM) sono esposti a minacce di sicurezza complesse, come le backdoor sleeper-agent. Questi attacchi, difficili da individuare, compromettono l'integrità e la sicurezza dei modelli, aprendo scenari da film d...

#LLM On-Premise #DevOps
2026-02-04 The Register AI

Intrusione AWS: accesso admin in 10 minuti grazie all'AI

Ricercatori hanno dimostrato come un sistema di intrusione, potenziato dall'AI, sia stato in grado di ottenere privilegi di amministratore su un ambiente cloud AWS in meno di 10 minuti, automatizzando diverse fasi dell'attacco.

#LLM On-Premise #DevOps
2026-02-04 The Register AI

Cloud offrono OpenClaw nonostante i rischi di sicurezza

Nonostante gli avvertimenti di Gartner sui rischi di cybersecurity associati all'assistente AI OpenClaw, diverse piattaforme cloud hanno iniziato a offrirlo come servizio. La decisione solleva interrogativi sulla priorità data alla velocità di implem...

#LLM On-Premise #DevOps
2026-02-03 404 Media

Attacchi hacker contro app di segnalazione ICE: dati a rischio?

Applicazioni per segnalare la presenza di agenti ICE (Immigration and Customs Enforcement) sono state bersaglio di attacchi hacker. Gli aggressori hanno inviato messaggi minacciosi agli utenti, sostenendo di aver compromesso i loro dati e di averli c...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Falla in Moltbook espone 1,5 milioni di chiavi API

Una vulnerabilità di sicurezza in Moltbook ha portato all'esposizione di 1,5 milioni di chiavi API. La falla permetteva l'accesso diretto al database tramite una chiave Supabase esposta, consentendo la lettura di messaggi privati e la modifica di con...

#LLM On-Premise #DevOps
2026-02-03 Ars Technica AI

Moltbook: prompt virali AI, la prossima minaccia alla sicurezza?

Una nuova piattaforma di agenti AI che condividono istruzioni tramite prompt potrebbe replicare la storia del worm Morris. Un errore di programmazione potrebbe portare a una diffusione incontrollata, con conseguenze potenzialmente gravi per i sistemi...

#LLM On-Premise #DevOps
2026-02-03 The Register AI

OpenClaw: l'assistente AI fai-da-te che espone a rischi di sicurezza

OpenClaw, un assistente personale basato su AI con cui gli utenti interagiscono tramite app di messaggistica, si rivela un veicolo per malware e genera costi imprevisti. La sua architettura solleva serie preoccupazioni sulla sicurezza dei dati e dell...

#LLM On-Premise #DevOps
2026-02-02 The Register AI

OpenClaw: scoperta vulnerabilità RCE a singolo click

I ricercatori hanno divulgato una catena di exploit che consente agli attaccanti di eseguire codice tramite una singola pagina web malevola. Diversi progetti stanno rilasciando patch per vulnerabilità di esecuzione di codice remoto (RCE) e takeover d...

← Torna ai Topic