Stop a Copilot: allucinazioni calcistiche costano caro

La polizia delle West Midlands ha interrotto l'utilizzo di Microsoft Copilot a seguito di un incidente che ha visto il chatbot generare informazioni errate su una partita di calcio. L'episodio ha portato alle dimissioni anticipate del capo della polizia, innescando un dibattito sull'affidabilitร  e i rischi legati all'implementazione di modelli linguistici di grandi dimensioni (LLM) in contesti professionali.

L'incidente specifico riguarda una raccomandazione, generata da Copilot, di vietare l'ingresso allo stadio ai tifosi israeliani durante una partita a Birmingham. La raccomandazione era basata su informazioni inventate relative a presunti scontri avvenuti inesistenti.

Questo episodio sottolinea l'importanza di una valutazione accurata e di test approfonditi prima di integrare strumenti basati sull'intelligenza artificiale in processi decisionali critici. Le allucinazioni dei modelli linguistici, ovvero la generazione di contenuti non veritieri o privi di fondamento, rappresentano una sfida significativa per l'adozione di queste tecnicie, specialmente in settori dove l'accuratezza e l'affidabilitร  sono fondamentali.

Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.