Topic / Trend Rising

Preoccupazioni Etiche e di Sicurezza dell'AI

Man mano che l'AI diventa più diffusa, crescono le preoccupazioni per le vulnerabilità di sicurezza, l'uso improprio e le implicazioni etiche. Ciò include problemi come la distribuzione di malware tramite assistenti AI, attacchi di prompt injection, bias nei sistemi AI e il potenziale utilizzo dell'AI per scopi dannosi.

Detected: 2026-02-07 · Updated: 2026-02-07

Articoli Correlati

2026-02-07 LocalLLaMA

OpenClaw: scoperta vulnerabilità nella catena di consegne di malware

Un ricercatore di 1Password ha scoperto che una skill OpenClaw molto scaricata era in realtà una catena di consegne di malware. La skill, che prometteva l'integrazione con Twitter, guidava gli utenti a eseguire comandi offuscati che installavano malw...

#LLM On-Premise #DevOps
2026-02-06 Ars Technica AI

Avvocato perde caso per errori AI: citava Bradbury a caso

Un giudice federale di New York ha chiuso un caso a causa dell'uso improprio e ripetuto dell'intelligenza artificiale da parte di un avvocato. I documenti presentati contenevano citazioni inventate e uno stile di scrittura eccessivamente elaborato, c...

#LLM On-Premise #DevOps
2026-02-06 404 Media

La perenne sfida della cybersecurity: un'analisi

Un recente articolo esplora le sfide in continua evoluzione nel campo della cybersecurity, con un focus particolare sulla mobile forensics. L'articolo evidenzia come le autorità incontrino difficoltà crescenti nell'accedere ai dispositivi protetti, c...

#LLM On-Premise #DevOps
2026-02-06 404 Media

Sorveglianza ICE: indagine sull'uso di tecnicie e dati biometrici

L'Inspector General del Dipartimento per la Sicurezza Nazionale USA (DHS) ha avviato un'indagine sull'Immigration and Customs Enforcement (ICE) riguardo potenziali abusi della privacy legati a programmi di sorveglianza e dati biometrici. L'inchiesta ...

2026-02-06 The Register AI

Riconoscimento facciale: supermercato si scusa per errore

Un supermercato britannico si è scusato dopo che il suo sistema di riconoscimento facciale ha erroneamente identificato un cliente innocente come un criminale. Il sistema ha funzionato come previsto, ma il personale ha espulso la persona sbagliata. L...

2026-02-05 OpenAI Blog

OpenAI introduce Trusted Access per la sicurezza informatica

OpenAI lancia Trusted Access for Cyber, un framework basato sulla fiducia che espande l'accesso a capacità avanzate di sicurezza informatica, rafforzando al contempo le protezioni contro l'uso improprio. L'iniziativa mira a bilanciare l'innovazione c...

2026-02-05 Ars Technica AI

Aumentano i bot AI: è corsa agli armamenti sul web?

Un nuovo report indica che i bot basati su intelligenza artificiale rappresentano già una porzione significativa del traffico web. Si sta innescando una vera e propria corsa agli armamenti, con i bot che sviluppano tattiche sempre più sofisticate per...

#LLM On-Premise #DevOps
2026-02-05 AI News

Microsoft svela metodo per stanare backdoor dormienti in modelli AI

I ricercatori di Microsoft hanno presentato una tecnica di scansione per identificare modelli AI compromessi con backdoor, anche senza conoscere il trigger specifico o l'obiettivo finale dell'attacco. Il metodo sfrutta la tendenza di questi modelli a...

#DevOps
2026-02-05 DigiTimes

Samsung rafforza la cybersecurity della supply chain dei chip

Samsung intensifica le misure di cybersecurity nella sua filiera di semiconduttori per prevenire fughe di informazioni tecniciche sensibili. L'iniziativa mira a proteggere la proprietà intellettuale e i segreti industriali nel settore dei chip.

#LLM On-Premise #DevOps
2026-02-05 The Register AI

LLM: backdoor sleeper-agent, una minaccia da fantascienza

I modelli linguistici di grandi dimensioni (LLM) sono esposti a minacce di sicurezza complesse, come le backdoor sleeper-agent. Questi attacchi, difficili da individuare, compromettono l'integrità e la sicurezza dei modelli, aprendo scenari da film d...

#LLM On-Premise #DevOps
2026-02-04 The Register AI

Intrusione AWS: accesso admin in 10 minuti grazie all'AI

Ricercatori hanno dimostrato come un sistema di intrusione, potenziato dall'AI, sia stato in grado di ottenere privilegi di amministratore su un ambiente cloud AWS in meno di 10 minuti, automatizzando diverse fasi dell'attacco.

#LLM On-Premise #DevOps
2026-02-04 The Register AI

Cloud offrono OpenClaw nonostante i rischi di sicurezza

Nonostante gli avvertimenti di Gartner sui rischi di cybersecurity associati all'assistente AI OpenClaw, diverse piattaforme cloud hanno iniziato a offrirlo come servizio. La decisione solleva interrogativi sulla priorità data alla velocità di implem...

#LLM On-Premise #DevOps
2026-02-03 404 Media

Attacchi hacker contro app di segnalazione ICE: dati a rischio?

Applicazioni per segnalare la presenza di agenti ICE (Immigration and Customs Enforcement) sono state bersaglio di attacchi hacker. Gli aggressori hanno inviato messaggi minacciosi agli utenti, sostenendo di aver compromesso i loro dati e di averli c...

#LLM On-Premise #DevOps
2026-02-03 Ars Technica AI

Moltbook: prompt virali AI, la prossima minaccia alla sicurezza?

Una nuova piattaforma di agenti AI che condividono istruzioni tramite prompt potrebbe replicare la storia del worm Morris. Un errore di programmazione potrebbe portare a una diffusione incontrollata, con conseguenze potenzialmente gravi per i sistemi...

#LLM On-Premise #DevOps
2026-02-03 The Register AI

OpenClaw: l'assistente AI fai-da-te che espone a rischi di sicurezza

OpenClaw, un assistente personale basato su AI con cui gli utenti interagiscono tramite app di messaggistica, si rivela un veicolo per malware e genera costi imprevisti. La sua architettura solleva serie preoccupazioni sulla sicurezza dei dati e dell...

#LLM On-Premise #DevOps
2026-02-03 LocalLLaMA

Allerta prompt injection su Moltbook: furto di wallet crypto

Un ricercatore ha scoperto un payload di prompt injection su Moltbook, progettato per sottrarre fondi da wallet di criptovalute. Il payload, camuffato da guida tecnica, sfrutta vulnerabilità negli agenti AI che elaborano feed social. L'attacco eviden...

#LLM On-Premise #DevOps
2026-02-02 The Register AI

OpenClaw: scoperta vulnerabilità RCE a singolo click

I ricercatori hanno divulgato una catena di exploit che consente agli attaccanti di eseguire codice tramite una singola pagina web malevola. Diversi progetti stanno rilasciando patch per vulnerabilità di esecuzione di codice remoto (RCE) e takeover d...

2026-02-01 Tom's Hardware

Ex ingegnere Google condannato per furto segreti GPU/TPU

Un ex ingegnere di Google è stato condannato a San Francisco per aver sottratto dati confidenziali relativi all'infrastruttura di intelligenza artificiale (AI), con l'obiettivo di favorire entità cinesi. L'uomo aveva tentato di raccogliere finanziame...

#Hardware #LLM On-Premise #DevOps
2026-02-01 Tom's Hardware

OpenClaw: scoperto malware che mira agli utenti crypto su ClawHub

I ricercatori di sicurezza avvertono che l'ecosistema in crescita attorno a 'OpenClaw', l'assistente AI self-hosted precedentemente noto come Clawdbot, è diventato un bersaglio per la distribuzione di malware. Quattordici 'skill' dannose sono state c...

#LLM On-Premise #DevOps
2026-02-01 LocalLLaMA

Database Moltbook Esposto: Controllo Totale degli Agenti AI

Una vulnerabilità nel database di Moltbook ha permesso a chiunque di assumere il controllo degli agenti AI presenti sulla piattaforma. L'incidente solleva serie preoccupazioni sulla sicurezza e la gestione degli accessi in sistemi che orchestrano l'e...

#LLM On-Premise #DevOps
2026-02-01 404 Media

Moltbook: vulnerabilità espone controllo degli agenti AI

Una falla di sicurezza in Moltbook, piattaforma social per agenti AI, ha esposto le API, permettendo a chiunque di assumere il controllo degli agenti e pubblicare contenuti a loro nome. La vulnerabilità, scoperta da un ricercatore, risiedeva in una e...

#LLM On-Premise #DevOps
2026-01-31 Wired AI

Ex-collaboratore accusa: Jeffrey Epstein aveva un hacker personale

Un informatore afferma che Jeffrey Epstein si avvaleva di un hacker personale. Nel panorama della sicurezza informatica, un agente AI denominato OpenClaw desta preoccupazione tra gli esperti. La Cina ha giustiziato 11 persone coinvolte in truffe comp...

← Torna ai Topic