Anthropic vs. Pentagono: una rottura significativa
Il Dipartimento della Difesa (DoD) degli Stati Uniti ha designato Anthropic come un rischio per la supply chain, dopo che le due entitร non sono riuscite a trovare un accordo sull'entitร del controllo che l'esercito avrebbe dovuto avere sui suoi modelli di intelligenza artificiale. Le divergenze riguardavano in particolare l'uso dell'IA in armi autonome e la sorveglianza interna di massa.
OpenAI subentra, ma con conseguenze
In seguito al fallimento del contratto da 200 milioni di dollari con Anthropic, il DoD si รจ rivolto a OpenAI. Tuttavia, l'accettazione del contratto da parte di OpenAI รจ coincisa con un aumento del 295% delle disinstallazioni di ChatGPT. Questo dato suggerisce una potenziale reazione negativa da parte degli utenti, forse preoccupati per le implicazioni etiche e di privacy derivanti dalla collaborazione con il settore militare.
La competizione come fattore positivo
La vicenda evidenzia l'importanza della competizione nel settore dell'IA. La disponibilitร di diverse aziende con approcci differenti puรฒ garantire una maggiore diversitร di soluzioni e una minore dipendenza da un singolo fornitore. Questo รจ particolarmente rilevante in contesti delicati come quello della difesa, dove la sovranitร dei dati e il controllo sui modelli sono cruciali.
Per chi valuta deployment on-premise, esistono trade-off da considerare attentamente. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!