Attribuzione di causalità all'AI: un'analisi della percezione umana

Un recente studio ha esaminato come le persone attribuiscono la responsabilità causale in situazioni complesse in cui l'intelligenza artificiale (AI) è coinvolta in eventi dannosi. La ricerca si concentra sulla "selezione della causa", ovvero l'identificazione degli elementi che hanno portato a un risultato negativo, un passaggio cruciale per stabilire la responsabilità.

Lo studio ha rivelato diversi risultati chiave:

  • Autonomia dell'AI: Quando l'AI ha un'autonomia moderata (l'uomo definisce l'obiettivo, l'AI i mezzi) o alta (l'AI definisce sia l'obiettivo che i mezzi), i partecipanti attribuiscono una maggiore responsabilità causale all'AI. Al contrario, con bassa autonomia, la responsabilità ricade sull'uomo.
  • Ruolo Umano vs. AI: Anche quando umani e AI compiono la stessa azione, i partecipanti tendono a considerare l'azione umana come più causale.
  • Responsabilità dello sviluppatore: Lo sviluppatore, pur essendo distante dalla catena degli eventi, è considerato altamente responsabile, riducendo l'attribuzione di colpa all'utente umano, ma non all'AI.
  • Componenti dell'AI: Scomponendo l'AI in un modello linguistico di grandi dimensioni (LLM) e una componente agentica, quest'ultima viene percepita come più causale.

Questi risultati offrono spunti su come le persone percepiscono il contributo causale dell'AI in scenari di uso improprio e disallineamento, e come queste valutazioni interagiscono con i ruoli di utenti e sviluppatori. La ricerca può contribuire a definire quadri di responsabilità per i danni causati dall'AI e a comprendere come i giudizi intuitivi influenzano i dibattiti sociali e politici sugli incidenti reali legati all'AI.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.