La sfida della disinformazione AI

La diffusione di contenuti manipolati tramite AI rappresenta una sfida crescente per l'affidabilità delle informazioni online. Dai deepfake interattivi ai modelli iperrealistici accessibili, la capacità di distinguere tra realtà e finzione è sempre più complessa.

La proposta di Microsoft

Microsoft ha presentato un progetto per stabilire l'autenticità dei contenuti online. Il piano prevede l'uso combinato di diverse tecniche:

  • Provenance: Tracciamento dettagliato dell'origine e della storia del contenuto.
  • Watermark: Marchi digitali invisibili all'occhio umano ma rilevabili dalle macchine.
  • Impronte digitali: Scansioni digitali per generare una firma matematica univoca del contenuto.

L'azienda ha valutato 60 combinazioni di queste tecniche per determinare quali offrono risultati affidabili e quali potrebbero generare confusione.

Implementazione e limiti

Eric Horvitz, chief scientific officer di Microsoft, ha sottolineato che questi strumenti non sono progettati per valutare la veridicità dei contenuti, ma solo per verificarne l'eventuale manipolazione. L'adozione di questi standard da parte delle piattaforme e delle aziende AI è fondamentale, ma potrebbe essere ostacolata da interessi economici.

Regolamentazione e prospettive future

L'AI Act dell'Unione Europea e altre normative in discussione a livello globale potrebbero imporre l'obbligo di indicare quando un contenuto è stato generato con l'AI. Tuttavia, un'implementazione inadeguata di questi strumenti potrebbe minare la fiducia degli utenti. La California’s AI Transparency Act sarà un primo test negli USA.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.