Anthropic, sviluppatore del modello linguistico Claude, ha dichiarato che non comprometterร le proprie salvaguardie sull'intelligenza artificiale, nemmeno per il Dipartimento della Difesa degli Stati Uniti.
L'azienda ha esplicitamente rifiutato di allentare le restrizioni che impediscono a Claude di essere utilizzato per la sorveglianza di massa o per il controllo di armi completamente autonome. Questa decisione sottolinea l'impegno di Anthropic verso un utilizzo responsabile dell'AI, anche in contesti militari.
Questa posizione evidenzia un dibattito piรน ampio sull'etica dell'intelligenza artificiale e sul suo impiego in ambito bellico. Molte aziende tecniciche si trovano a dover bilanciare le opportunitร commerciali con le preoccupazioni relative alla sicurezza e all'impatto sociale delle loro creazioni. Per chi valuta deployment on-premise, esistono trade-off da considerare. AI-RADAR offre framework analitici su /llm-onpremise per valutare questi aspetti.
๐ฌ Commenti (0)
๐ Accedi o registrati per commentare gli articoli.
Nessun commento ancora. Sii il primo a commentare!