Il blocco giudiziario e le sue implicazioni

Un giudice della California ha emesso un'ordinanza provvisoria che impedisce al Pentagono di etichettare Anthropic come un rischio per la supply chain e di ordinare alle agenzie governative di cessare l'utilizzo della sua intelligenza artificiale. Questa decisione rappresenta l'ultimo sviluppo in una contesa che dura da mesi e che ha messo in luce le tensioni tra il governo statunitense e i fornitori di tecnicia AI. La questione non è ancora risolta, poiché il governo ha sette giorni per presentare ricorso, e Anthropic ha un secondo procedimento in corso che attende una decisione. Fino ad allora, l'azienda rimane "persona non grata" per l'amministrazione.

La posta in gioco in questo caso è significativa: definire fino a che punto il governo possa sanzionare un'azienda che non si allinea alle sue direttive. Anthropic ha ricevuto il sostegno di figure di spicco, inclusi ex autori della politica sull'AI dell'amministrazione Trump, evidenziando la trasversalità delle preoccupazioni. Per le organizzazioni che valutano il deployment di soluzioni AI, la stabilità delle relazioni con i fornitori e la chiarezza dei processi contrattuali sono elementi cruciali, soprattutto quando si tratta di infrastrutture critiche o dati sensibili.

La gestione della disputa e le 'guerre culturali'

L'opinione di 43 pagine del giudice Rita Lin suggerisce che quella che era essenzialmente una disputa contrattuale non avrebbe dovuto raggiungere un tale livello di scontro. Secondo il giudice, la situazione è degenerata perché il governo ha ignorato le procedure esistenti per la gestione di tali controversie e ha alimentato la tensione con post sui social media da parte di funzionari, che in seguito hanno contraddetto le posizioni assunte in tribunale. In sostanza, il Pentagono sembrava voler innescare una "guerra culturale", un approccio che si è rivelato controproducente sul piano legale.

Documenti giudiziari rivelano che il governo ha utilizzato il modello Claude di Anthropic per gran parte del 2025 senza obiezioni. L'azienda, pur posizionandosi come sviluppatrice di AI focalizzata sulla sicurezza, ha anche ottenuto contratti di difesa. I dipendenti della difesa che accedevano a Claude tramite Palantir dovevano accettare termini d'uso specifici per il governo, che, secondo il cofondatore di Anthropic Jared Kaplan, "proibivano la sorveglianza di massa degli americani e la guerra autonoma letale". Le divergenze sono emerse solo quando il governo ha cercato di contrattare direttamente con Anthropic.

Le violazioni e i limiti del potere governativo

Ciò che ha suscitato l'indignazione del giudice è stato il fatto che, una volta rese pubbliche, le divergenze si sono concentrate più sulla punizione che sulla semplice interruzione dei rapporti con Anthropic. Questo comportamento ha seguito uno schema preciso: prima il tweet, poi l'azione legale. Il 27 febbraio, un post dell'ex Presidente Trump su Truth Social ha fatto riferimento a "estremisti di sinistra" in Anthropic e ha ordinato a tutte le agenzie federali di smettere di usare la sua AI. Poco dopo, il Segretario alla Difesa Pete Hegseth ha ribadito l'intenzione di etichettare Anthropic come rischio per la supply chain.

Tuttavia, il giudice ha riscontrato che Hegseth non ha completato le azioni specifiche necessarie per tale designazione. Ad esempio, le lettere inviate ai comitati del Congresso affermavano che erano state valutate misure meno drastiche, ma senza fornire dettagli. Il governo ha anche sostenuto che la designazione era necessaria perché Anthropic avrebbe potuto implementare un "kill switch", ma i suoi avvocati hanno dovuto ammettere di non avere prove a riguardo. Inoltre, la dichiarazione di Hegseth secondo cui "nessun appaltatore, fornitore o partner che fa affari con l'esercito degli Stati Uniti può condurre attività commerciali con Anthropic" è stata giudicata priva di effetto legale dagli stessi avvocati del governo. Le aggressive dichiarazioni pubbliche hanno anche portato il giudice a concludere che Anthropic aveva fondate ragioni per lamentare la violazione dei suoi diritti del Primo Emendamento, poiché il governo "si era prefissato di punire pubblicamente Anthropic per la sua 'ideologia' e 'retorica', nonché per la sua 'arroganza' nel non voler compromettere tali convinzioni".

Prospettive future e il controllo sulla tecnicia AI

La designazione di Anthropic come rischio per la supply chain l'avrebbe essenzialmente identificata come un "sabotatore" del governo, per la quale il giudice non ha riscontrato prove sufficienti. L'ordinanza emessa blocca la designazione, impedisce al Pentagono di applicarla e proibisce al governo di adempiere alle promesse fatte da Hegseth e Trump. Dean Ball, che ha lavorato sulla politica AI per l'amministrazione Trump e ha sostenuto Anthropic, ha descritto la sentenza come "devastante per il governo".

Nonostante il governo si prepari a ricorrere in appello, e Anthropic abbia un caso separato a Washington con accuse simili, la vicenda evidenzia una chiara discrepanza tra le dichiarazioni pubbliche dei funzionari e le procedure legali. Anche se Anthropic dovesse vincere definitivamente, il governo dispone di altri mezzi per escludere l'azienda da futuri lavori. Come sottolinea Charlie Bullock dell'Institute for Law and AI, "ci sono meccanismi che il governo può usare per applicare una certa pressione senza infrangere la legge". La vicenda mostra come l'amministrazione stia dedicando tempo e risorse di alto livello a una "guerra culturale" sull'AI, pur dipendendo da soluzioni come Claude. Questo solleva questioni fondamentali sulla sovranità dei dati e sul controllo delle tecnicie critiche, aspetti centrali per le organizzazioni che scelgono deployment on-premise per mantenere il pieno controllo sulle proprie infrastrutture AI.