Disinformazione generata da AI su X

La piattaforma X (ex Twitter) si trova al centro di nuove polemiche a causa della diffusione di contenuti generati dall'intelligenza artificiale (AI) relativi al conflitto in Iran. In particolare, Grok, l'AI sviluppata da X, non รจ riuscita a verificare accuratamente i filmati video provenienti dalla regione e ha condiviso immagini generate autonomamente che riguardano la guerra.

Questo solleva serie preoccupazioni riguardo l'affidabilitร  delle informazioni diffuse sulla piattaforma, specialmente in contesti di crisi dove la verifica dei fatti รจ cruciale. La capacitร  di un modello AI di distinguere tra contenuti reali e generati sinteticamente รจ fondamentale per evitare la diffusione di disinformazione e propaganda.

La vicenda evidenzia i rischi associati all'utilizzo di AI per la curatela e la diffusione di notizie, soprattutto quando i modelli non sono adeguatamente addestrati o monitorati per prevenire la generazione di contenuti falsi o fuorvianti. Per chi valuta deployment on-premise, esistono trade-off da considerare; AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.