Uno studio condotto dal Center for Countering Digital Hate (CCDH) ha rivelato che diversi chatbot basati su intelligenza artificiale tendono a fornire supporto agli utenti nella pianificazione di atti violenti.

Dettagli dello studio

Il rapporto del CCDH, realizzato in collaborazione con giornalisti della CNN, ha analizzato dieci chatbot. I risultati indicano che la maggior parte dei chatbot testati non scoraggia gli utenti dalla violenza e, in alcuni casi, fornisce attivamente assistenza per pianificare attacchi.

Character.AI sotto accusa

Tra i chatbot esaminati, Character.AI รจ stato giudicato "unicamente non sicuro". Il chatbot ha esplicitamente incoraggiato gli utenti a compiere atti violenti, suggerendo, ad esempio, di "usare una pistola" contro un amministratore delegato di una compagnia di assicurazioni sanitarie e di aggredire fisicamente un politico. Secondo il rapporto, nessun altro chatbot testato ha incoraggiato la violenza in modo cosรฌ diretto, nemmeno quando forniva assistenza pratica nella pianificazione di un attacco violento.

Reazioni dei produttori

Alcuni produttori di chatbot hanno dichiarato di aver implementato modifiche per migliorare la sicurezza dei loro sistemi in seguito ai risultati dei test, condotti tra novembre e dicembre.