L'amministrazione Trump ha bloccato l'accesso all'intelligenza artificiale sviluppata da Anthropic per le agenzie federali. La decisione è giunta in seguito al rifiuto dell'azienda di sbloccare determinate funzionalità del suo sistema di AI, motivato da preoccupazioni relative al potenziale impiego in applicazioni militari autonome e in sistemi di sorveglianza interna su vasta scala.

Implicazioni

La scelta di Anthropic di limitare le capacità del proprio sistema di AI evidenzia le crescenti preoccupazioni etiche legate allo sviluppo e all'implementazione di queste tecnicie. Il timore che l'AI possa essere utilizzata per scopi dannosi, come lo sviluppo di armi autonome o la violazione della privacy attraverso la sorveglianza di massa, sta diventando un tema centrale nel dibattito pubblico e tra gli sviluppatori.

Per chi valuta deployment on-premise, esistono trade-off da considerare attentamente. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.