Negli Stati Uniti il dibattito sull’applicazione dell’AI in ambito militare ha smesso da tempo di essere una pura questione speculativa. Il punto non è più se i modelli di frontiera entreranno nella catena decisionale della difesa, ma a quali condizioni, con quale grado di autonomia e, soprattutto, a chi spetterà l’autorità ultima di definirne l’esatto perimetro d’impiego. A renderlo chiaro, con un’insolita semplicità rispetto ai meccanismi spesso opachi dell’acquisizione tecnologica militare, è stata la frattura apertasi tra il Dipartimento della Difesa (DoD) e Anthropic — la società produttrice dei modelli Claude — tra febbraio e aprile 2026.
Come evidenziato in un nostro precedente articolo, la disputa non si è ridotta a un semplice conflitto di interessi tra un’azienda mossa da scrupoli etici e un committente governativo dal profilo a dir poco “aggressivo”. La situazione sta invece evolvendo in una tensione strutturale che nessuna delle parti può risolvere unilateralmente: un confronto tra la sovranità d’uso rivendicata dallo Stato sulla tecnologia acquistata e la governance privata che ne regola il funzionamento. Tensione che, non trovando soluzione sul piano negoziale, ha inevitabilmente investito quello giudiziario, trasformando una disputa amministrativa in una questione di diritti costituzionali e limiti del potere esecutivo.
Il nuovo complesso techno-militare: Anduril e la riconfigurazione industriale della difesa
Per collocare correttamente la disputa aperta fra Anthropic e ilPentagono, è necessario capire in quale ecosistema questa si inserisce. Il complesso industriale-militare americano sta attraversando una trasformazione accelerata che non riguarda solo i sistemi d’arma, ma il modello stesso di approvvigionamento ed architettura tecnologica della difesa.
Anduril Industries, fondata da Palmer Luckey nel 2017, è oggi uno dei contractor della difesa più rappresentativi della nuova generazione tech-militare USA e, forse, il caso più emblematico di questa riconfigurazione. L’azienda ha costruito la propria offerta attorno a sistemi autonomi — droni, sensori, veicoli marittimi, sistemi di contraerea — tutti coordinati da una piattaforma software basata sull’intelligenza artificiale nota come Lattice. La logica sottostante è quella di produrre hardware militare relativamente economico e altamente scalabile, governato da un’architettura distribuita di comando e controllo capace di alleggerire — e in parte sostituire — il giudizio del singolo operatore umano nelle decisioni in tempo reale.
Questa architettura non rappresenta una novità nel panorama industriale americano. Il Pentagono ha progressivamente consolidato i propri rapporti con un nucleo ristretto di fornitori tecnologici specializzati nell’intelligenza artificiale, riducendo la frammentazione contrattuale in favore di accordi quadro pluriennali ad alto valore. Tra i protagonisti di questa riconfigurazione figurano, oltre ad Anduril Industries, Palantir Technologies — azienda software statunitense attiva nei settori della difesa e dell’intelligence, fondata da Peter Thiel nel 2003 — e, più di recente, OpenAI. Tre profili distinti per storia e posizionamento, ma tutti accomunati da una presenza sempre più strutturale nella catena operativa militare.
Il contratto enterprise di Anduril con l’esercito ha attualmente raggiunto un tetto di venti miliardi di dollari; quello di Palantir raggiunge i dieci miliardi con un accordo analogo. Le due aziende, peraltro, non operano in modo del tutto separato: collaborano attivamente. Una collaborazione strategica che, come vedremo, è molto rilevante. La direzione complessiva è chiara, non più sperimentazioni isolate ma un’integrazione strutturale — e diretta — delle capacità di AI nella catena operativa militare USA.
In questo scenario si inserisce anche OpenAI che, nel dicembre 2024, ha annunciato una partnership strategica con Anduril per potenziare, a livello software, i sistemi di contrasto ai droni a pilotaggio remoto. I modelli di OpenAI, in quest’ottica, vengono integrati nella piattaforma Lattice per elaborare dati in tempo reale, ridurre il carico cognitivo sugli operatori e migliorare la consapevolezza situazionale in ambienti operativi complessi. Si tratta del primo accordo formale tra OpenAI e un appaltatore della difesa — un cambio di rotta notevole per un’azienda che, appena nel 2023, proibiva esplicitamente l’uso dei propri modelli per scopi militari.
E Anthropic?
Anthropic, in parallelo, aveva consolidato il proprio accesso al settore della difesa, attraverso un percorso differente, ottenendo un contratto da duecento milioni di dollari nel luglio 2025. Secondo i termini dell’accordo, il Dipartimento della Difesa avrebbe reso Claude il primo modello di frontiera integrato in reti classificate. I modelli di Anthropic erano stati inoltre selezionati come componenti attive del Maven Smart System di Palantir — la stessa piattaforma impiegata a supporto delle operazioni militari statunitensi in Ucraina e, secondo fonti successive, anche in altri teatri operativi (Iran nda.). La posizione di Anthropic non era dunque quella di un’azienda estranea al comparto della difesa, bensì quella di un fornitore già del tutto integrato le cui condizioni d’uso — ritenute non negoziabili dall’azienda stessa — erano diventate, agli occhi del Pentagono, un ostacolo inaccettabile alla piena sovranità operativa.
Il punto di rottura: Anthropic e la pretesa di “any lawful use”
Il conflitto si è configurato in modo definitivo nel febbraio 2026, quando le trattative per il rinnovo e l’espansione del contratto tra Anthropic e il DoD si sono arenate su una questione di principio. Il Pentagono chiedeva di poter impiegare i modelli Claude per qualsiasi scopo consentito dalle leggi federali e militari, senza vincoli imposti contrattualmente dal fornitore. La formula, ripetuta più volte dai funzionari del Dipartimento, era appunto “for all lawful purposes“. Anthropic, tuttavia, si rifiutava di rimuovere due linee rosse che aveva posto come non negoziabili: l’uso dei propri sistemi per la sorveglianza di massa dei cittadini americani e la loro integrazione in sistemi d’arma letali pienamente autonomi, privi di supervisione umana nelle decisioni di attacco.
Qui il punto di contrasto non era puramente tecnico, ma di architettura del controllo. Il Sottosegretario alla Difesa per la Ricerca e l’Ingegneria, Emil Michael, Chief Technology Officer (CTO) del Pentagono, lo ha commentato ufficialmente in modo netto: “Non possiamo permettere che un’azienda con differenti orientamenti di policy li incorpori nel modello, compromettendo la catena di approvvigionamento e fornendo ai combattenti capacità inefficaci”. In altri termini, la posizione del Dipartimento della Difesa, non era di voler usare Claude per sorveglianza di massa o per armi autonome in quel momento specifico. Era, in realtà, di non voler accettare che un fornitore privato si inserisse strutturalmente nella catena di comando e controllo attraverso i vincoli tecnici incorporati nel proprio prodotto.
Anthropic, dal canto suo, ha sostenuto che tali restrizioni non costituivano un ostacolo alle operazioni militari legittime, ma una cautela tecnica fondata sulla valutazione reale delle capacità e dei limiti attuali dei propri sistemi. Dario Amodei, CEO e co-fondatore dell’azienda, ha più volte argomentato pubblicamente che i modelli Claude non raggiungono, allo stato attuale, il livello di affidabilità necessario per operare senza un controllo umano sostanziale nelle decisioni ad alto rischio (meaningful human control). Sostenendo inoltre che la sola rimozione delle restrizioni contrattuali — comunemente definite guardrails nel settore — avrebbe trasferito al sistema una responsabilità tecnica che non è ancora in grado di sorreggere.
Il 24 febbraio 2026 Dario Amodei e il Segretario alla Difesa Pete Hegseth si sono incontrati nel tentativo di trovare un accordo. Il confronto non ha prodotto risultati. Tre giorni dopo, il 27 febbraio, il Dipartimento della Difesa ha formalizzato la designazione di Anthropic come ‘supply chain risk’. Il presidente Trump ha contestualmente ordinato alle agenzie federali di sospendere l’uso della tecnologia Anthropic e ai contractor di certificare l’assenza di prodotti dell’azienda nei sistemi legati al Pentagono. Anthropic ha perso anche il contratto ‘OneGov‘ gestito dalla General Services Administration.
OpenAI e la divergenza di posizioni tra vendor
Nello stesso giorno della designazione di Anthropic da parte del Pentagono, OpenAI ha siglato il proprio accordo con il DoD. La tempistica non era casuale, ma rifletteva una divergenza di posizione strategica che era ormai già in corso da mesi.
L’accordo OpenAI-Pentagono ha previsto un’architettura cloud-only, nella quale i modelli non risiedono fisicamente sui sistemi d’arma ma operano a distanza attraverso reti classificate — una scelta architetturale che OpenAI considera una garanzia tecnico-operativa, poiché un’arma non potrebbe operare in autonomia se dipendente da una connessione remota interrompibile. OpenAI ha incluso nel contratto alcune linee rosse proprie: divieto di sorveglianza domestica di massa, divieto di indirizzare direttamente sistemi d’arma autonomi, divieto di decisioni automatizzate ad alto rischio senza supervisione umana. Con un emendamento del 2 marzo 2026 — firmato tre giorni dopo l’accordo originale, concluso lo stesso giorno nel quale l’amministrazione Trump aveva escluso Anthropic dai contratti governativi — il Pentagono ha esplicitamente chiarito che i servizi OpenAI non si estendono ad agenzie di intelligence come la NSA, le quali richiederebbero una separata modifica contrattuale per rientrare nell’ambito di applicazione.
Queste restrizioni si distinguono tuttavia da quelle di Anthropic su un piano fondamentale: fanno riferimento alle politiche interne del Dipartimento della Difesa, che il DoD stesso ha l’autorità di modificare unilateralmente. E una limitazione contrattuale che rimanda alle politiche del committente non ha lo stesso valore di una restrizione tecnica incorporata nel sistema e rivendicata dal fornitore come non derogabile. Una differenza sottolineata più volte dai critici dell’accordo — tra i quali figurano anche alcuni ricercatori di OpenAI che hanno scelto di sostenere Anthropic a titolo personale attraverso un amicus brief, dissociandosi dalla posizione ufficiale della propria azienda.
Inoltre, l’accordo con Anduril, già operativo dall’estate 2025 con la partnership formale del dicembre 2024, come detto, aveva già collocato OpenAI in una posizione di integrazione attiva nella difesa prima ancora della disputa Anthropic-Pentagono. Una partnership concentrata sui sistemi counter-UAS, con l’obiettivo dichiarato di elaborare dati spaziali e sensoristici in tempo reale per ridurre notevolmente il carico sugli operatori. L’ambiguità della formula “ridurre il carico sull’operatore” — che può sottintendere sia un supporto decisionale, sia una progressiva automazione della risposta — non è ancora stata chiarita in alcuna comunicazione ufficiale.
Sam Altman, CEO di OpenAI, ha successivamente preso una posizione pubblica per chiedere che il governo non sanzionasse Anthropic, presentandosi come il garante di un equilibrio di settore. Si tratta di una mossa comprensibile sul piano della reputazione industriale, che tuttavia non risolve la sostanza dello scontro, visto che, mentre OpenAI ha scelto un modello di relazione con il committente statale fondato sulla flessibilità e sulla delega delle condizioni d’uso, Anthropic ha optato per un modello basato sulla ritenzione contrattuale di limiti tecnici non cedibili.
Nessuna delle due posizioni è di per sé incoerente: entrambe riflettono valutazioni divergenti su dove debbano risiedere la responsabilità e il controllo nel momento in cui i sistemi di AI sono chiamati a operare in contesti in cui le decisioni hanno conseguenze potenzialmente irreversibili.
Perché il problema non è teorico: autonomia, opacità e rischio decisionale
Le cautele tecniche di Anthropic non derivano da una posizione puramente ideologica, ma da una valutazione specifica dei limiti attuali dei modelli di linguaggio di grandi dimensioni in contesti ad alto rischio operativo.
Uno studio pubblicato nel febbraio 2026 dal King’s College di Londra, coordinato dal Professor Kenneth Payne, ha sottoposto modelli AI avanzati a simulazioni di crisi internazionale stile Guerra Fredda su 329 turni. Il dato più rilevante è che nel novantacinque per cento delle simulazioni i modelli hanno fatto ricorso a forme di minaccia nucleare — sfruttando o considerando l’opzione atomica come strumento tattico — nonostante avessero a disposizione molteplici strategie di de-escalation diplomatica. I comportamenti osservati non erano uniformi: i diversi modelli hanno mostrato pattern decisionali molto distinti, alcuni orientati all’escalation sistematica sotto pressione temporale, altri a forme di imprevedibilità strategica. La conclusione analitica dell’esperimento è che i modelli non “cercano la guerra nucleare” ad ogni costo, ma che in contesti simulati di crisi estrema e forti pressioni emergono dinamiche decisionali tali da rendere concreto e fondato il problema della delega strategica e dell’autonomia letale.
Questa criticità non è un artefatto dello studio, ma ha una base tecnica strutturale. I modelli di AI di frontiera sono sistemi probabilistici che non seguono regole deterministiche, bensì distribuzioni di probabilità che rendono il loro comportamento intrinsecamente variabile in funzione del contesto. Anthropic è stata tra le prime a sviluppare tecniche di interpretability mirate ad analizzare i meccanismi interni dei propri modelli con l’obiettivo di comprendere quali rappresentazioni si attivino e perché. E ciò che queste ricerche hanno rivelato, è che i processi decisionali interni non sono leggibili nemmeno dagli stessi sviluppatori: il modello produce output apparentemente coerenti attraverso percorsi che non possono essere verificati, almeno per ora, dall’esterno. Il rischio operativo non è quindi l’errore grossolano e facilmente identificabile, bensì la devianza sottile — un percorso decisionale che appare logico, viene accettato come tale, e solo ex post, se mai, si rivela fondato su inferenze che nessuna supervisione in tempo reale avrebbe potuto intercettare.
Ed è in questa direzione che si inserisce il framework della Constitutional AI (CAI), presentato da Anthropic in forma di paper di ricerca nel dicembre 2022 e implementato operativamente nell’addestramento di Claude a partire dal maggio 2023, con la pubblicazione della prima constitution pubblica del modello. Si tratta di un sistema valoriale incorporato direttamente nel processo di addestramento, che stabilisce vincoli non derogabili indipendentemente dall’autorità di chi formuli la richiesta. L’architettura non è una lista di filtri superficiali, ma un livello di allineamento procedurale più profondo che orienta il comportamento del modello anche in assenza di istruzioni esplicite — e che, per questa ragione, il DoD non poteva semplicemente disabilitare per contratto.
La questione dei limiti, dunque, non è di facciata né puramente etica. Ha invece un fondamento operativo logico dato che chi delega a un sistema probabilistico — i cui processi interni non sono verificabili nemmeno da chi lo ha costruito — la gestione di decisioni con conseguenze letali, trasferisce una responsabilità che il sistema non è in grado di garantire e che nessuna supervisione umana a posteriori può recuperare.
Il nodo giuridico e istituzionale
La vicenda ha assunto una dimensione legale formale quando Anthropic ha deciso di contestare in sede giudiziaria la propria designazione come supply chain risk.
Sul piano normativo, la vicenda coinvolge due statuti distinti. Il Dipartimento della Difesa ha infatti invocato il 10 U.S.C. § 3252, che attribuisce alla difesa l’autorità di escludere fornitori dalla catena di approvvigionamento per ragioni di sicurezza nazionale. Sempre il DoD ha invocato, contestualmente, anche il Federal Acquisition Supply Chain Security Act (FASCSA), contenuto nel 41 U.S.C. § 4713, che prevede un’analoga facoltà di esclusione ma segue un percorso procedurale differente e può essere impugnato direttamente davanti al Circuito del Distretto di Columbia. Questa distinzione non è meramente tecnica, dato che genera due binari legali paralleli con tempistiche e fori competenti diversi, una situazione che Anthropic ha dovuto affrontare presentando due ricorsi separati, uno in California e uno a Washington appunto.
Le designazioni imputate ad Anthropic erano state, in precedenza, applicate esclusivamente a soggetti collegati ad avversari stranieri — come Huawei o Kaspersky — o a organizzazioni terroristiche. Il loro utilizzo contro un’azienda statunitense, senza che fosse accertato alcun legame con potenze ostili e in risposta a una posizione contrattuale resa pubblica, ha costituito il punto centrale delle questioni giuridiche ancora in atto
Il 26 marzo 2026, la giudice federale Rita Lin del Tribunale del Distretto Nord della California ha emesso un’ingiunzione preliminare che sospende l’efficacia della designazione fondata sul § 3252. Nella sua decisione, la giudice ha ritenuto che l’amministrazione avesse probabilmente esteso la portata della norma oltre il suo perimetro, utilizzandola in un contesto non coerente con la funzione specifica dello statuto, che riguarda i supply-chain risks relativi a sistemi di sicurezza nazionale. Lin ha inoltre osservato che, secondo il record amministrativo, tra gli elementi posti a base della designazione figuravano anche le modalità — da esso definite ‘ostili’ — con le quali Anthropic aveva gestito la comunicazione pubblica del conflitto con il DoD, circostanza che ha rafforzato il sospetto di una possibile ritorsione per l’esercizio di diritti tutelati dal Primo Emendamento. Sul piano procedurale, la giudice ha rilevato sia possibili carenze rispetto alle salvaguardie previste dal § 3252 — tra cui consultazione, determinazione scritta, valutazione delle misure meno intrusive e notifica al Congresso — sia criticità ulteriori sotto il profilo del due process, in particolare per l’assenza di un’adeguata notice e di una reale opportunity to respond prima della privazione.
Il Dipartimento della Difesa ha presentato appello il 2 aprile 2026, portando il caso davanti alla Corte d’Appello del Nono Circuito, che ha fissato al 30 aprile il termine per la presentazione degli atti difensivi da parte del Dipartimento di Giustizia. Nel frattempo, l’ingiunzione consente ad Anthropic di continuare ad operare con i partner federali che avevano sospeso i rapporti in seguito alla designazione § 3252. La designazione fondata sul FASCSA rimane tuttavia formalmente in vigore — come ha precisato il Sottosegretario Emil Michael, continuando a produrre effetti autonomi rispetto all’ingiunzione californiana.
La vicenda, al di la dell’esito finale, pone un problema istituzionale che va oltre la singola controversia. La posizione del DoD — che il conflitto riguardasse il controllo operativo e non la libertà di espressione — è giuridicamente distinguibile, ma non risolve la questione di fondo, ovvero se la pressione di un apparato statale su un fornitore privato affinché modifichi la governance tecnica del proprio prodotto possa essere esercitata attraverso strumenti pensati per neutralizzare attori stranieri ritenuti ostili. Ed è questa la domanda che anche il Nono Circuito dovrà affrontare. Visto che, una risposta affermativa allargherebbe notevolmente il perimetro di pressione dell’esecutivo sui vendor AI; mentre una negativa stabilirebbe invece un precedente in grado di limitare significativamente l’uso strumentale delle designazioni di supply chain risk nel mercato tecnologico americano.
La vera posta in gioco: chi governa i limiti dell’AI militare
Il caso sviluppatosi tra febbraio e aprile 2026 non è risolvibile nei soli termini in cui le parti lo hanno inizialmente presentato. Dato che non si tratta di una mera contrapposizione tra aziende etiche e uno Stato ‘aggressivo’, né di scrupoli privati che intralciano la sicurezza nazionale.
L’AI di frontiera è già parte integrante della catena decisionale militare statunitense. Claude operava in reti classificate, supportando le operazioni anche in altri teatri operativi attraverso la piattaforma di Palantir, ed era integrato in sistemi di decision support utilizzati dai comandanti sul campo per elaborare dati in tempo reale. Tale integrazione non è reversibile nel breve termine: smantellarla genererebbe gravi discontinuità operative, come dimostrato dalle preoccupazioni espresse da Palantir circa la propria dipendenza tecnologica.
La questione rilevante, dunque, non è se l’AI entrerà nel settore della difesa, ma chi ne controllerà le condizioni operative e di presenza al suo interno. Il caso dimostra che la risposta non è univoca, delineando almeno tre distinti modelli di relazione tra Stato e vendor: il modello Anthropic, basato sulla ritenzione contrattuale di limiti tecnici inderogabili, a rischio di rottura con il committente; il modello OpenAI, fondato sulla flessibilità negoziale e sulla delega delle condizioni d’uso allo Stato, con il rischio di perdere il controllo effettivo sulle modalità di impiego; infine, il modello Anduril, nel quale il vendor è interamente orientato alla funzione militare e la gestione dei limiti è direttamente inglobata nel sistema di governance della difesa statunitense.
Una cosa è certa però, nessuno di questi modelli risolve, allo stato attuale, il problema strutturale che è, e rimane, di natura istituzionale. Nessun quadro normativo esistente disciplina in modo adeguato il rapporto tra un fornitore privato di AI di frontiera ed un committente pubblico dotato di poteri di sicurezza nazionale. Il diritto degli appalti non è attrezzato per gestire la governance tecnica di sistemi probabilistici; il diritto militare non ha ancora sviluppato regole di ingaggio per l’AI autonoma; il diritto costituzionale, infine, offre strumenti di tutela dell’espressione, ma non una cornice per la distribuzione della responsabilità decisionale tra Stato, fornitore e sistema.
Il risultato è che il confine tra strumento, infrastruttura, fornitore e decisore sta diventando sempre più labile. Anthropic ha rivendicato il ruolo di co-decisore attraverso la governance tecnica del proprio prodotto, consapevole dei propri limiti strutturali; il Pentagono ha riaffermato il monopolio della decisione militare, inclusa quella sulle condizioni d’uso dei propri strumenti. Il tribunale ha stabilito che lo Stato non può punire il dissenso tecnico, ma non ha risposto — né poteva farlo — alla domanda fondamentale: come si debba governare tale frontiera una volta che l’IA vi si è già stabilmente insediata.
Tirando le somme
La questione dei limiti dell’AI militare non è più un tema di etica anticipatoria. È diventata una questione di potere: chi fissa le regole, chi le può modificare, chi risponde quando vengono violate o aggirate.
Il caso americano lo ha reso visibile in modo chiaro. Anthropic ha scelto di incorporare i propri limiti nella struttura tecnica del prodotto, trasformando una posizione etica in un vincolo contrattuale e, infine, in un contenzioso costituzionale. OpenAI ha scelto di negoziare i propri limiti con il committente, accettando che la loro effettività dipenda dalla stabilità delle politiche del Dipartimento della Difesa. Anduril ha scelto di non porre la questione in questi termini, costruendo un prodotto progettato per essere governato da chi lo usa.
Sono scelte diverse, con conseguenze diverse sulla distribuzione della responsabilità. E proprio questa diversità rende il caso emblematico di una lacuna che nessun quadro normativo esistente è ancora in grado di colmare in modo esaustivo.
Il contenzioso Anthropic-Pentagono ha reso chiaro che questa lacuna non può essere colmata caso per caso, contratto per contratto, tribunale per tribunale. Richiede invece una seria scelta politica sulla struttura istituzionale dentro la quale questi rapporti debbano svolgersi. E fino a quando quella scelta non verrà effettuata, la governance dell’AI militare continuerà a essere determinata da chi ha più potere nella singola negoziazione — e non è affatto detto che chi detiene quel potere sia anche nella posizione migliore per stabilire dove debbano stare i limiti.
Glossario
10 U.S.C. § 3252. Statuto federale che attribuisce al Dipartimento della Difesa l’autorità di escludere fornitori dalla catena di approvvigionamento per ragioni di sicurezza nazionale. È la base normativa principale invocata dal Pentagono per designare Anthropic come supply chain risk, e quella oggetto dell’ingiunzione preliminare emessa dalla giudice Rita Lin il 26 marzo 2026.
Allucinazione. Fenomeno per il quale un modello di linguaggio produce output apparentemente coerenti e plausibili ma fattualmente errati o privi di fondamento. La forma più insidiosa in contesti ad alto rischio è quella dell’allucinazione sottile: un errore decisionale che supera la supervisione umana perché si presenta con una struttura logica convincente, indistinguibile dall’output corretto fino a quando le conseguenze non si sono già prodotte.
Amicus brief. Documento giuridico presentato da soggetti terzi — non parti dirette in un procedimento — che ritengono di poter offrire al tribunale elementi utili alla decisione. Nel caso Anthropic, alcuni ricercatori di OpenAI hanno depositato un amicus brief a titolo personale in sostegno della posizione di Anthropic, dissociandosi così dalla posizione ufficiale della propria azienda.
Any Lawful Use / All Lawful Purposes. Formula contrattuale richiesta dal Pentagono ad Anthropic, con la quale il Dipartimento della Difesa avrebbe ottenuto la facoltà di impiegare i modelli Claude per qualsiasi scopo consentito dalle leggi federali e militari, senza limitazioni imposte dal fornitore. Il rifiuto di accettare questa clausola ha innescato la rottura tra le due parti.
Constitutional AI (CAI). Framework sviluppato da Anthropic per allineare il comportamento dei propri modelli a un insieme di principi valoriali incorporati nell’addestramento. A differenza dei soli filtri superficiali, si tratta di un livello di condizionamento più profondo che orienta le risposte del modello anche in assenza di istruzioni esplicite e indipendentemente dall’autorità di chi formula la richiesta.
Counter-UAS (CUAS). Sistemi e capacità progettati per rilevare, tracciare e neutralizzare veicoli aerei non pilotati considerati una minaccia. È l’ambito applicativo specifico su cui si concentra la partnership tra OpenAI e Anduril.
Due Process. Principio costituzionale e procedurale che garantisce a qualsiasi soggetto il diritto a un procedimento equo prima che il governo adotti misure che ne ledano interessi rilevanti. La giudice Lin ha rilevato che le procedure previste dallo statuto — valutazione del rischio, notifica, possibilità di risposta, determinazione scritta, comunicazione al Congresso — non erano state correttamente osservate nel caso Anthropic.
FASCSA — Federal Acquisition Supply Chain Security Act. Legge federale contenuta nel 41 U.S.C. § 4713 che prevede una facoltà di esclusione analoga al § 3252 ma con un percorso procedurale distinto e un foro competente diverso — il Circuito del Distretto di Columbia. Nel caso Anthropic, genera un secondo binario legale parallelo all’ingiunzione californiana e rimane formalmente in vigore durante il procedimento d’appello.
Interpretability. Area di ricerca che studia i meccanismi interni dei modelli di intelligenza artificiale con l’obiettivo di rendere comprensibili i processi attraverso i quali un sistema giunge a un determinato output. Il limite che questa disciplina ha finora evidenziato è strutturale: i processi interni dei modelli di frontiera non sono pienamente verificabili nemmeno da chi li ha sviluppati, il che rende impossibile qualsiasi forma di supervisione esterna affidabile in tempo reale. Anthropic ha investito significativamente in questo campo proprio per valutare i limiti dei propri modelli prima di autorizzarne impieghi ad alto rischio.
Lattice. Piattaforma software sviluppata da Anduril Industries che funge da sistema centrale di comando e controllo per i sistemi autonomi dell’azienda — droni, sensori, veicoli marittimi, sistemi di contraerea. Integra dati provenienti da fonti eterogenee e li elabora in tempo reale per supportare le decisioni operative.
Maven Smart System. Piattaforma di analisi sviluppata da Palantir e impiegata dal Dipartimento della Difesa americano per elaborare grandi volumi di dati operativi e di intelligence. Al momento della disputa, Claude di Anthropic era uno dei modelli integrati in Maven e veniva utilizzato nelle operazioni militari americane in diversi teatri operativi.
Modello di frontiera. Termine tecnico che indica i sistemi di intelligenza artificiale più avanzati disponibili in un dato momento, situati alla frontiera delle capacità attuali della ricerca. Vi rientrano i principali sistemi sviluppati da Anthropic, OpenAI e Google, tra gli altri.
Nono Circuito. Corte d’Appello federale degli Stati Uniti competente per la regione occidentale del paese, inclusa la California. Rappresenta il secondo livello di giudizio nel sistema federale americano, prima dell’eventuale ricorso alla Corte Suprema. È il tribunale a cui il Dipartimento di Giustizia ha presentato l’appello contro l’ingiunzione di Lin il 2 aprile 2026, con termine per il deposito delle memorie fissato al 30 aprile 2026.
Primo Emendamento. Disposizione della Costituzione degli Stati Uniti che tutela la libertà di espressione da interferenze del governo federale. La giudice Lin ha rilevato che la designazione di Anthropic come supply chain risk era stata motivata anche dalle modalità pubbliche con cui l’azienda aveva comunicato la propria posizione, configurando una possibile ritorsione per l’esercizio di un diritto costituzionalmente garantito.
Segnalamento nucleare. Strategia di comunicazione nella quale uno Stato segnala all’avversario la propria disponibilità o intenzione a ricorrere all’opzione nucleare, con l’obiettivo di modificarne il comportamento senza un uso effettivo delle armi. Nello studio del King’s College, i modelli AI hanno fatto ricorso a questa tecnica nel novantacinque per cento delle simulazioni, trattandola come strumento tattico ordinario anziché come soglia eccezionale — una delle evidenze più rilevanti sul piano della delega decisionale all’AI in contesti di crisi estrema.
Sistemi d’arma letali autonomi (LAWS). Sistemi militari capaci di selezionare e ingaggiare obiettivi senza intervento umano diretto nelle decisioni di fuoco. Il loro sviluppo e impiego è oggetto di un dibattito internazionale non risolto su responsabilità, diritto internazionale umanitario e limiti dell’automazione bellica. La loro esclusione dall’ambito d’uso di Claude costituiva una delle due linee rosse non negoziabili di Anthropic.
Sorveglianza di massa. Raccolta sistematica e su larga scala di dati su popolazioni o individui, tipicamente attraverso strumenti digitali, senza necessità di autorizzazione caso per caso. L’esclusione dell’impiego di Claude per la sorveglianza dei cittadini americani era l’altra linea rossa fissata da Anthropic come condizione non derogabile nel contratto con il Dipartimento della Difesa.
Supply Chain Risk. Designazione formale con la quale il Dipartimento della Difesa degli Stati Uniti può escludere un fornitore dalla catena di approvvigionamento militare per ragioni di sicurezza nazionale. Fino al caso Anthropic era stata applicata esclusivamente a soggetti collegati ad avversari stranieri o organizzazioni terroristiche, mai a un’azienda americana.
Fonti
Fonti ufficiali
Anthropic — Dichiarazione pubblica sul Dipartimento della Difesa
OpenAI — Accordo con il Dipartimento della Difesa
Anduril Industries — Comunicato sulla partnership con OpenAI
King’s College London — Studio sull’escalation nucleare nelle simulazioni AI (comunicato)
King’s College London — “Shall We Play a Game?” (commento del Prof. Payne)
Agenzie e stampa
AP News — Il Pentagono presenta appello contro l’ingiunzione su Anthropic
Reuters — Anthropic rifiuta le richieste del Pentagono sulle salvaguardie AI
Reuters — Il Pentagono informa Anthropic della designazione come supply chain risk
Reuters — La Gran Bretagna corteggia Anthropic dopo lo scontro con la difesa USA
Washington Times — L’amministrazione Trump fa appello contro la sentenza su Anthropic
Inside Defense — Il Pentagono fa appello contro l’ordinanza di rimozione del label supply chain risk
CNN — Il giudice blocca il tentativo del Pentagono di “punire” Anthropic
CNN — Anthropic fa causa al Dipartimento della Difesa per la designazione supply chain risk
CNN — Anthropic rifiuta l’ultima offerta del Pentagono
Axios — Anthropic respinge i termini del Pentagono: “Non possiamo in coscienza accettare”
Axios — Anthropic fa causa al Pentagono per la designazione supply chain risk
CNBC — Lo scontro tra difesa e Anthropic: rischi e implicazioni dello standoff sull’AI
CNBC — Anthropic designata supply chain risk mentre Claude viene usato in Iran
CNBC — Anthropic di fronte a uno scenario senza vincitori mentre si avvicina la scadenza
CNBC — OpenAI stringe una partnership con Anduril
TechCrunch — Anthropic fa causa al Dipartimento della Difesa
TechCrunch — La designazione supply chain risk è ufficiale
CBS News — Il memo interno del Pentagono ordina la rimozione di Anthropic dai sistemi chiave
Defense News — Anduril e OpenAI si uniscono per potenziare le capacità counter-drone
Breaking Defense — Anduril e OpenAI annunciano una partnership strategica contro i droni
Washington Post — OpenAI si unisce al produttore di armi Anduril sull’AI militare
Approfondimenti
MIT Technology Review — Il nuovo contratto con la difesa di OpenAI completa la sua svolta militare
TIME — La versione del Pentagono sullo scontro con Anthropic: intervista a Emil Michael
TechPolicy.Press — Come leggere la disputa Anthropic-Pentagono
