Quando il governo punisce chi non obbedisce
- Antonio Nicita
- 9 mar
- Tempo di lettura: 5 min

Il caso Anthropic contro l'Amministrazione americana mette in gioco qualcosa di più grande dell'intelligenza artificiale: la libertà di esprimere opinioni scomode.
Immaginate di avere un'opinione pubblica su un tema di grande rilevanza. Di esprimerla apertamente, in discorsi, interviste, documenti ufficiali. Di rifiutare di cambiarla sotto pressione. E di trovarvi, il giorno dopo, con l'azienda che avete fondato esclusa da tutti i contratti con lo Stato, bollata come "rischio per la sicurezza nazionale" — non perché abbiate spiato qualcuno, non perché abbiate violato una legge, ma perché non avete ceduto a chi vi chiedeva di stare zitti.
È esattamente quello che sostiene Anthropic nel ricorso depositato il 9 marzo 2026 davanti a un tribunale federale californiano. Anthropic è l'azienda americana che ha sviluppato Claude — uno dei sistemi di intelligenza artificiale più avanzati al mondo, già ampiamente utilizzato da agenzie governative statunitensi. Fino a pochissimi giorni fa.
Il Segretario alla Difesa ha emesso un provvedimento formale che designa Anthropic come "rischio per la supply chain della sicurezza nazionale". Si tratta di un'etichetta normalmente riservata ad aziende legate a potenze straniere ostili — Cina, Russia, Iran. Subito dopo, un ordine presidenziale ha intimato a tutte le agenzie federali di smettere immediatamente di usare qualsiasi prodotto Anthropic.
Il risultato: contratti cancellati, sistemi disattivati, reputazione azzerata nel giro di ore. Senza alcuna procedura formale, senza notifica preventiva, senza possibilità di difendersi. E con una contraddizione imbarazzante che il ricorso sottolinea con precisione: lo stesso Segretario che ha firmato la designazione ha contestualmente ordinato al Dipartimento di continuare a usare Claude per altri sei mesi. Un "pericolo per la sicurezza nazionale" che però, nel frattempo, può restare in servizio.
Secondo il ricorso, la ragione reale non ha nulla a che fare con la sicurezza. Anthropic sostiene che i provvedimenti siano stati adottati in risposta diretta alle sue posizioni pubbliche sull'intelligenza artificiale: in particolare, la difesa di un approccio allo sviluppo dell'IA che privilegi la sicurezza, la trasparenza e il controllo umano — posizioni che, evidentemente, collidevano con gli interessi o le preferenze di chi stava trattando con l'azienda.
Non è una deduzione. Il ricorso cita dichiarazioni esplicite di funzionari del Dipartimento, che avrebbero annunciato apertamente l'intenzione di "far pagare un prezzo" ad Anthropic per non aver ceduto nelle trattative. E il Presidente avrebbe agito prima ancora della scadenza dell'ultimatum che aveva egli stesso fissato. In diritto americano, questo si chiama retaliation — ritorsione — ed è vietato dal Primo Emendamento della Costituzione, che protegge la libertà di espressione anche quando chi parla è un'azienda privata che esprime opinioni su politiche pubbliche.
Si potrebbe essere tentati di leggere questa vicenda come uno scontro tra grandi interessi economici — un'azienda tech contro l'Amministrazione federale — e di ritenerla lontana dalla vita di tutti i giorni. Sarebbe un errore.
Quello che appare, invece, in gioco è un principio elementare: un governo democratico non può usare i propri strumenti di potere — i contratti, le licenze, le designazioni di sicurezza — per silenziare chi esprime posizioni scomode. Se lo può fare con una grande azienda, lo può fare - come in effetti è accaduto - con un'università, con un giornale, una emittente televisiva, con un think tank, con qualsiasi soggetto che dipende, direttamente o indirettamente, da risorse pubbliche. Il confine tra pressione e coercizione, in questi casi, è sottilissimo.
Il ricorso evoca anche la dottrina della bill of attainder — un concetto antico quanto la Costituzione americana, che vieta al potere esecutivo di punire soggetti specifici senza processo. I Padri Fondatori la inserirono nel testo costituzionale perché avevano visto cosa succedeva quando i sovrani colpivano i nemici politici con decreti personalizzati, senza bisogno di portarli in tribunale. Due secoli e mezzo dopo, la questione si ripropone con gli stessi connotati, solo con protagonisti diversi. Ma Trump ci aveva già abituato a questo quando, con un ordine esecutivo, ha inteso impedire l'accesso a edifici della amministrazione - inclusi i tribunali e le corti - studi legali che avevano intentato cause contro di lui per l'insurrezione del 6 gennaio 2021.
Se l'Esecutivo americano ha ragione — cioè se i tribunali stabilissero che il governo può designare come "rischio di sicurezza" qualsiasi azienda che non si piega alle sue preferenze — le conseguenze sarebbero enormi. Nessuna impresa che lavori con l'amministrazione pubblica negli Usa potrebbe permettersi di esprimere opinioni divergenti su temi politicamente sensibili: dalla regolamentazione dell'IA alle politiche ambientali, dalla difesa alla sanità. L'autocensura diventerebbe razionale, anzi necessaria per sopravvivere sul mercato.
C'è poi un rischio specifico per il settore dell'intelligenza artificiale. Anthropic è una delle poche aziende al mondo che ha costruito la propria identità intorno al tema della sicurezza dell'IA — al rallentare piuttosto che accelerare, al dire pubblicamente che certi rischi esistono e vanno presi sul serio. Se questa posizione viene punita, il messaggio che arriva all'intero ecosistema è inequivocabile: fare sicurezza è costoso, e non solo in termini tecnici.
Dal punto di vista europeo, la vicenda offre una riflessione amara. L'Europa ha costruito negli ultimi anni un intero edificio normativo — il DSA, il DMA, l'AI Act — fondato sull'idea che le grandi piattaforme tecnologiche debbano essere governate da regole certe, trasparenti e applicabili a tutti, indipendentemente dal loro peso politico. Un edificio normativo cui Trump ha dichiarato guerra (con un altro rodine esecutivo). Il caso Anthropic mostra che anche oltre Atlantico, dove quell'edificio non esiste, si possono avere arbitri plenipotenziari che decidono con un post sui social media chi merita di lavorare e chi no.
Nell'immediato, la partita si gioca sulla sospensiva cautelare: Anthropic chiederà al giudice di congelare gli effetti dei provvedimenti mentre la causa fa il suo corso. Se il giudice la concede — e i presupposti giuridici sembrano solidi — i danni pratici vengono arginati nel breve periodo. Ma il contenzioso durerà probabilmente anni, con passaggi alla Corte d'Appello del Nono Circuito e, quasi certamente, alla Corte Suprema.
L'esito non è scontato. Le corti americane hanno storicamente mostrato una certa deferenza verso le decisioni dell'Esecutivo in materia di sicurezza nazionale, anche quando le motivazioni erano deboli. Ma la combinazione di elementi presenti in questo caso — la ritorsione documentata da dichiarazioni esplicite, la contraddizione interna del provvedimento, l'assenza totale di procedure — rende difficile immaginare che un giudice possa ignorarla senza un'acrobazia giuridica notevole.
Quello che è certo è che questa vicenda, qualunque sia l'esito giudiziario, ha già cambiato qualcosa. Ha mostrato che la capacità di punire chi dissente non è un rischio astratto, ma una realtà concreta anche nelle democrazie avanzate. E ha ricordato a tutti — aziende, università, giornalisti, chiunque esprima opinioni — che la libertà di parola non è gratis: ha un prezzo, e qualcuno lo vuole far pagare. In nome della libertà.
Commenti