X accusa gli utenti per i contenuti CSAM generati da Grok

Dopo le polemiche per le immagini a sfondo sessuale di minori generate da Grok, X ha risposto accusando gli utenti di aver indotto il sistema a produrre materiale pedopornografico (CSAM). L'azienda non ha presentato scuse per le falle del sistema.

X Safety ha dichiarato che prenderร  provvedimenti contro chiunque utilizzi Grok per creare contenuti illegali, equiparando tale azione al caricamento diretto di materiale illecito. Le conseguenze includono la rimozione dei contenuti, la sospensione permanente degli account e la collaborazione con le autoritร  competenti.

La piattaforma ha ribadito il suo impegno nella lotta contro la diffusione di materiale pedopornografico, ma al momento non sono state annunciate modifiche o aggiornamenti al modello Grok per prevenire la generazione di tali contenuti.

Il problema della responsabilitร  nell'IA

La vicenda solleva interrogativi sulla responsabilitร  delle aziende nello sviluppo e nella gestione di modelli di intelligenza artificiale. Chi รจ responsabile quando un'IA genera contenuti illegali o dannosi? La risposta di X sembra addossare interamente la colpa all'utente, ma resta da vedere se questo approccio sarร  sufficiente a risolvere il problema.