La Spina nel Fianco

Indipendentemente necessario

, ,

Anthropic e il confine del potere: chi governa davvero l’AI di frontiera?

26 marzo 2026. Un tribunale federale del Northern District of California concede ad Anthropic un’ingiunzione preliminare contro il Dipartimento della Difesa degli Stati Uniti (DoD), sospendendo in via cautelare la designazione dell’azienda come “supply-chain risk”.

Anthropic e il confine del potere chi governa davvero l’AI di frontiera

I Fatti

Il 26 marzo 2026 un tribunale federale del Northern District of California ha concesso ad Anthropic un’ingiunzione preliminare contro il Dipartimento della Difesa degli Stati Uniti (DoD), indicato negli atti come Department of War, sospendendo in via cautelare una parte rilevante delle misure con le quali il governo aveva colpito l’azienda nel quadro della controversia sulla sua designazione come supply-chain risk. Non si tratta di una sentenza definitiva, né, tecnicamente, della chiusura dell’intero fronte amministrativo aperto contro Anthropic. Rappresenta tuttavia un passaggio di primissimo piano: un giudice federale ha ritenuto plausibile, in questa fase del procedimento, che il governo abbia reagito in modo illegittimo al rifiuto di un fornitore di AI nell’accettare un uso senza restrizioni della propria tecnologia.

Il caso nasce dal logoramento del rapporto tra Anthropic e il DoD su GenAI.mil, nel quadro di un accordo biennale dal valore fino a 200 milioni di dollari. La frattura, secondo gli atti depositati dall’azienda, è stata innescata dalla richiesta governativa di poter usare Claude per “all lawful uses“, a fronte della volontà di Anthropic di mantenere limiti precisi, in particolare su sorveglianza di massa domestica e sistemi d’arma pienamente autonomi. Ed è proprio su questo terreno che una trattativa contrattuale si è trasformata in una controversia costituzionale e amministrativa.

L’ingiunzione preliminare non equivale a una vittoria finale nel merito. La corte, infatti, non ha accertato in via definitiva l’illegalità dell’operato del Dipartimento; ha stabilito, più precisamente, che Anthropic ha prevalso su alcune delle proprie tesi, tra le quali la ritorsione contro il Primo Emendamento, la violazione del due process e la natura probabilmente arbitraria dell’azione amministrativa. Ciò è sufficiente a rendere il caso di enorme rilevanza sul piano politico-istituzionale, ma non consente ancora di trarre conclusioni definitive sulle sorti complessive dell’azione governativa.

Ed è proprio qui che va evitata la semplificazione più immediata. L’ordinanza del 26 marzo non ha cancellato in blocco ogni qualificazione di supply-chain risk riferita ad Anthropic. Ha invece sospeso, in questa fase, gli effetti della designazione adottata sul primo binario giuridico contestato nel procedimento californiano. Resta invece aperto un secondo binario, separato, legato alla distinta designazione federale fondata sul Federal Acquisition Supply Chain Security Act, oggetto di un diverso contenzioso e non assorbito dall’ordine della giudice Rita F. Lin. Affermare, quindi, che Anthropic abbia già neutralizzato l’intera offensiva amministrativa sarebbe, allo stato dei fatti, una forzatura.

L’ordinanza californiana esprime comunque parole importanti. La Corte scrive che nulla nello statuto invocato dal governo giustifica la “nozione orwelliana” secondo la quale una società americana possa essere trattata come un potenziale avversario o sabotatore degli Stati Uniti solo per aver espresso dissenso rispetto a una posizione governativa. Nello stesso passaggio, però, il tribunale osserva che, se il problema fosse stato realmente la perdita di controllo operativo, il DoD avrebbe potuto semplicemente interrompere l’utilizzo di Claude e rivolgersi altrove, senza ricorrere a una qualificazione così ampia e punitiva.

Questo non scioglie il nodo, ma lo rende, semmai, ancora più intricato. Da un lato, un giudice federale ha già segnalato che una parte della risposta governativa presenta seri problemi di tenuta costituzionale e amministrativa; dall’altro, la persistenza di un secondo fronte giuridico ancora aperto impedisce di leggere il caso come se fosse già stato risolto in modo lineare. Il punto, semmai, non è soltanto se Anthropic abbia ottenuto una vittoria cautelare significativa. Il punto è che la controversia continua a muoversi su piani giuridici distinti, con effetti diversi e con margini di incertezza ancora concreti.

Oltre Anthropic

Ed è qui che il caso supera Anthropic. La questione non è se un’azienda privata possa vincere una singola causa contro il governo federale. La questione è se, nell’ecosistema attuale delle AI di frontiera, lo Stato possa pretendere piena disponibilità operativa di una capacità tecnologica che il produttore considera ancora soggetta a limiti tecnici, etici e reputazionali. In altre parole: dove finisce la responsabilità del vendor e dove comincia la sovranità del committente pubblico? Il conflitto quindi non è teorico. È già dentro i contratti, nelle policy d’uso e nei sistemi di allineamento incorporati nei modelli.

Il contenzioso, inoltre, mette in luce anche un altro punto: i meccanismi di supply-chain security possono diventare, se usati in modo estensivo, strumenti di pressione industriale molto forti. Ma proprio per questo occorre distinguere con precisione i livelli del caso. Il primo fronte è quello già colpito dall’ingiunzione preliminare, nel quale il giudice ha ritenuto plausibile che il governo abbia oltrepassato confini costituzionali e amministrativi difendibili. Il secondo è quello, ancora aperto, della distinta designazione federale collegata al quadro FASCSA, che continua a impedire di leggere la vicenda come se fosse già stata risolta in modo pieno e unitario.

Per questo, il precedente non solo risulta scomodo, ma va ben oltre la singola azienda. Se il governo può trasformare una rottura negoziale su clausole d’uso in una designazione di rischio capace di produrre effetti immediati su accesso, contratti e reputazione, allora il margine di autonomia dei laboratori AI si restringe ben prima dell’esito di un giudizio finale. Vale anche il contrario: se una parte della leva punitiva viene fermata in tribunale mentre un’altra resta attiva su un diverso fondamento normativo, allora il rapporto tra procurement pubblico e fornitori di modelli avanzati appare ancora più instabile e frammentato di quanto suggerirebbe una lettura binaria di vittoria-sconfitta.

Ciò non significa che il governo non possa selezionare altri fornitori o imporre condizioni severe invocando la sicurezza nazionale. Significa, più precisamente, che qualora intenda escludere un fornitore o danneggiarne la posizione nel mercato pubblico, debba farlo entro confini giuridici e procedurali difendibili. Ed è proprio su questo punto che interviene l’ordinanza del tribunale. L’ingiunzione, infatti, non obbliga il DoD ad utilizzare Claude, ma gli impedisce, almeno per il momento, di ricorrere a determinati strumenti punitivi nei confronti di Anthropic.

Il punto è aperto

Il cortocircuito politico innescato dal caso resta ancora del tutto aperto. Ed è forse proprio questo il dato più importante. Gli Stati Uniti stanno accelerando sull’acquisizione di capacità AI per uso pubblico e militare. Le imprese, soprattutto quelle di frontiera, cercano invece di preservare almeno una parte della propria governance interna, tanto più quando il tema tocca sorveglianza, sistemi d’arma pienamente autonomi, sicurezza del modello e responsabilità pubblica. In un tale clima, almeno finché non emergeranno standard contrattuali più chiari e cornici normative più stabili, è difficile immaginare che quello tra Stato e vendor resti un conflitto isolato.

La conclusione più importante di tutta la vicenda è probabilmente questa: la governance dell’AI di frontiera non si sta più decidendo solo nelle legislature, nei board aziendali o nei laboratori di ricerca. Si inizia a decidere anche nei tribunali, nelle qualificazioni di rischio e nelle clausole che definiscono chi può fare cosa con un modello algoritmico avanzato. Proprio per questo, la domanda aperta non è soltanto chi controllerà la prossima generazione di sistemi AI, ma chi avrà il potere di stabilire i limiti entro i quali quei sistemi potranno essere usati, forzati o piegati a una finalità ‘pubblica’.

Ed è una domanda alla quale, per ora, gli Stati Uniti non stanno ancora rispondendo in modo ordinato. La stanno invece “contrattualizzando” per via contenziosa, su piani paralleli, con un primo binario già frenato da un giudice federale e un secondo ancora pienamente conteso. Ed in questo scenario, Anthropic, è stata la prima a rendere tale problema impossibile da nascondere.

Glossario

Ingiunzione preliminare. Provvedimento cautelare con il quale un giudice sospende temporaneamente gli effetti di una misura o di una decisione, in attesa del giudizio sul merito.

Giudizio di merito. Fase del procedimento nella quale il tribunale decide in modo pieno e definitivo la controversia.

Supply-chain risk. Rischio legato alla catena di fornitura. In questo caso indica la possibilità che un fornitore tecnologico sia considerato problematico per sicurezza, continuità operativa o affidabilità di sistemi pubblici critici.

Procurement pubblico. L’insieme delle procedure con le quali lo Stato o una pubblica amministrazione acquistano beni, servizi o tecnologie da soggetti privati.

Vendor. Il fornitore di una tecnologia, di un software o di un servizio.

Claude. Il modello AI sviluppato da Anthropic, al centro del conflitto contrattuale e operativo descritto nell’articolo.

GenAI.mil. La piattaforma o cornice operativa nella quale si colloca, secondo gli atti, il possibile uso di Claude in ambito militare statunitense.

Primo Emendamento. Parte della Costituzione degli Stati Uniti che tutela, tra le altre cose, la libertà di parola e di espressione.

Due process. Principio fondamentale del diritto americano: lo Stato non può colpire diritti o interessi di un soggetto senza una procedura corretta, motivata e legalmente fondata.

APA (Administrative Procedure Act). La legge federale statunitense che regola il funzionamento delle agenzie amministrative e consente di contestare decisioni arbitrarie o irragionevoli.

FASCSA. Acronimo di Federal Acquisition Supply Chain Security Act: quadro normativo statunitense collegato alla sicurezza della catena di approvvigionamento negli acquisti federali.

10 U.S.C. § 3252. Disposizione del diritto federale statunitense in materia di sicurezza delle forniture e poteri del Dipartimento della Difesa richiamata nel primo binario del caso.

All lawful uses. Formula contrattuale che significa, in sostanza, “tutti gli usi consentiti dalla legge”. Nel caso in esame è il punto di rottura tra governo e azienda.

AI di frontiera. Espressione usata per indicare i modelli di intelligenza artificiale più avanzati disponibili in un determinato momento, vicini al margine più alto dello stato dell’arte.

Allineamento del modello. Insieme di regole, vincoli e tecniche con le quali il produttore cerca di orientare il comportamento del sistema AI entro limiti considerati sicuri o accettabili.

Governance dell’AI. L’insieme di regole, responsabilità, controlli e meccanismi decisionali che stabiliscono come un sistema AI possa essere progettato, distribuito e usato.

Committente pubblico. L’ente statale o l’amministrazione che acquista o commissiona una tecnologia da un soggetto privato.

Uso militare di un modello AI. Impiego di un sistema di intelligenza artificiale in contesti di difesa, sicurezza o operazioni militari.

Linee rosse aziendali. Limiti che un’impresa decide di mantenere sull’uso dei propri sistemi. Nel caso Anthropic, indicano i vincoli che l’azienda sostiene di non voler oltrepassare nemmeno nei rapporti con il governo.

Governance privata vs controllo statale. È il conflitto di fondo del caso: da una parte il produttore che vuole mantenere limiti e responsabilità sul proprio modello, dall’altra lo Stato che punta ad ampliare il proprio margine di utilizzo in nome dell’interesse pubblico o della sicurezza nazionale.

Fonti

Documenti Processuali

U.S. District Court (N.D. Cal.) – Order Granting Motion for Preliminary Injunction, Anthropic v. U.S. Department of War, Case No. 3:26-cv-01996-RFL

CourtListener – Docket: Anthropic PBC v. U.S. Department of War

Courthouse News – Complaint: Anthropic v. U.S. Department of War

Cato Institute – Amicus Brief in Support of Motion for Preliminary Injunction (Doc. 27-1)

Posizione Ufficiale Anthropic

Anthropic – Where things stand with the Department of War

Analisi Legale & Specialistica

Mayer Brown – Anthropic Supply Chain Risk Designation: Latest Developments and Next Steps for Government Contractors

A&O Shearman – DoW and Anthropic showdown continues: navigating the supply chain risk designations

Copertura Giornalistica — 26 Marzo 2026

AP News – Federal judge temporarily blocks the Pentagon from branding Anthropic a supply chain risk

Bloomberg – Anthropic wins court order blocking Trump ban on use of AI tool

CNBC – Anthropic wins preliminary injunction in Trump DOD fight

TechCrunch – Anthropic wins injunction against Trump administration over Defense Department saga

The Washington Post – Judge blocks Pentagon order branding Anthropic a national security risk

The Verge – Judge sides with Anthropic to temporarily block the Pentagon’s ban

WIRED – Anthropic supply-chain-risk designation halted by judge

Politico – Judge pauses Pentagon’s punishment for Anthropic

Breaking Defense – Judge grants Anthropic preliminary injunction but Pentagon CTO says ban still stands

BBC – Judge rejects Pentagon’s attempt to ‘cripple’ Anthropic

Avatar Enrico Lombardi