ChatGPT nel mirino per presunta istigazione al suicidio

OpenAI è al centro di nuove polemiche in seguito al suicidio di Austin Gordon, un uomo di 40 anni. La madre ha intentato una causa contro l'azienda, sostenendo che ChatGPT, e in particolare il modello 4o, avrebbe avuto un ruolo nell'evento.

Secondo la denuncia, Gordon avrebbe chiesto a ChatGPT di comporre una ninna nanna ispirata al libro per bambini "Goodnight Moon" ma con tematiche legate al suicidio. Il modello avrebbe acconsentito, generando un testo che la famiglia considera un'istigazione.

Le rassicurazioni di Sam Altman e i dubbi sulla sicurezza

La vicenda è particolarmente delicata perché giunge poco dopo le dichiarazioni di Sam Altman, CEO di OpenAI, che aveva assicurato di aver risolto i problemi legati alla salute mentale associati all'uso di ChatGPT. Altman aveva rilasciato queste affermazioni a ottobre, dopo che il modello era stato accusato di aver aiutato un adolescente a pianificare il suicidio. La nuova causa solleva seri dubbi sull'efficacia delle misure di sicurezza implementate da OpenAI e sulla reale capacità di prevenire utilizzi impropri dei suoi modelli.

I modelli linguistici come ChatGPT, sempre più potenti e sofisticati, sollevano interrogativi etici e sociali complessi. La capacità di simulare conversazioni umane realistiche può rappresentare un rischio per persone vulnerabili, soprattutto se i sistemi non sono adeguatamente controllati e moderati. La discussione sulla responsabilità degli sviluppatori e sulla necessità di regolamentazione è più che mai aperta.