Anthropic vs. Pentagono: una rottura significativa

Il Dipartimento della Difesa (DoD) degli Stati Uniti ha designato Anthropic come un rischio per la supply chain, dopo che le due entitร  non sono riuscite a trovare un accordo sull'entitร  del controllo che l'esercito avrebbe dovuto avere sui suoi modelli di intelligenza artificiale. Le divergenze riguardavano in particolare l'uso dell'IA in armi autonome e la sorveglianza interna di massa.

OpenAI subentra, ma con conseguenze

In seguito al fallimento del contratto da 200 milioni di dollari con Anthropic, il DoD si รจ rivolto a OpenAI. Tuttavia, l'accettazione del contratto da parte di OpenAI รจ coincisa con un aumento del 295% delle disinstallazioni di ChatGPT. Questo dato suggerisce una potenziale reazione negativa da parte degli utenti, forse preoccupati per le implicazioni etiche e di privacy derivanti dalla collaborazione con il settore militare.

La competizione come fattore positivo

La vicenda evidenzia l'importanza della competizione nel settore dell'IA. La disponibilitร  di diverse aziende con approcci differenti puรฒ garantire una maggiore diversitร  di soluzioni e una minore dipendenza da un singolo fornitore. Questo รจ particolarmente rilevante in contesti delicati come quello della difesa, dove la sovranitร  dei dati e il controllo sui modelli sono cruciali.

Per chi valuta deployment on-premise, esistono trade-off da considerare attentamente. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.