Newsletter

Anthropic e Pentagono, è scontro aperto: qui si gioca il futuro

Il braccio di ferro tra Anthropic e la Difesa americana pone una domanda scomoda: chi decide come viene usata una tecnologia potenzialmente letale, il produttore o chi la compra? Il Pentagono ha fissato un ultimatum su cui Dario Amodei di Anthropic dichiara di non voler cedere. Vediamo che c’è in ballo. Ne discutiamo con Maurizio Carmignani (Founder&CEO – Management Consultant, Trainer & Startup Advisor)

C’è un paradosso al cuore della crisi che sta scuotendo il mercato dell’intelligenza artificiale per la difesa americana: il modello più avanzato disponibile sulle reti classificate del Pentagono appartiene all’unica azienda che ha osato dire no ai generali. Anthropic, la società di San Francisco fondata da ex ricercatori di OpenAI con la missione esplicita di sviluppare un’AI sicura, si trova ora al centro di uno scontro ad alta tensione con il segretario alla Guerra Pete Hegseth, che ha fissato un ultimatum destinato a ridefinire i rapporti di potere tra Silicon Valley e Washington.

L’ultima posizione di Dario Amodei, a capo di Anthropic, è di rifiuto di cedere sui due punti in questione: ribadisce il no alla possibilità di usare la sua IA per sorveglianza domestica di massa e per uccidere in modo autonomo.

Amodei rimane però aperto al dialogo.

Il raid su Caracas che ha cambiato tutto

La crisi ha un’origine precisa: la notte tra il 2 e il 3 gennaio 2026, quando le forze speciali americane hanno condotto un’operazione a Caracas catturando il presidente venezuelano Nicolás Maduro. Secondo quanto riportato dal Wall Street Journal, citando fonti a conoscenza dell’operazione, Claude, il modello di Anthropic, sarebbe stato impiegato durante l’operazione attiva, e non solo nella fase preparatoria.

Axios ha precisato esplicitamente questa distinzione, citando due fonti con diretta conoscenza della situazione. L’accesso sarebbe avvenuto tramite la piattaforma di Palantir Technologies, partner storico del Pentagono.

La rivelazione ha innescato una reazione immediata in casa Anthropic. Secondo la ricostruzione di Axios e The Hill, un dirigente di Anthropic avrebbe contattato un dirigente di Palantir per chiedere se e come Claude fosse stato impiegato nel raid.

La domanda, formulata in modo tale da lasciare intendere che l’azienda avrebbe potuto disapprovare l’utilizzo, è stata giudicata allarmante dal lato Palantir, che ha prontamente informato il Pentagono. Anthropic ha contestato questa ricostruzione: un portavoce ha dichiarato che l’azienda “non ha discusso dell’uso di Claude per operazioni specifiche con il Dipartimento della Guerra” e non ha sollevato preoccupazioni con partner del settore “al di fuori di ordinarie discussioni su questioni strettamente tecniche.”

Il gelo si è propagato immediatamente ai vertici del DoW. Un alto funzionario dell’amministrazione ha dichiarato ad Axios: “Qualsiasi azienda che mettesse a rischio il successo operativo dei nostri soldati sul campo è una realtà con cui dobbiamo riconsiderare il rapporto.”

Il portavoce del Pentagono Sean Parnell ha confermato pubblicamente la revisione: “La nostra nazione richiede che i propri partner siano disposti ad aiutare i nostri militari a vincere in qualsiasi combattimento.”

L’ultimatum: la riunione del 24 febbraio

Martedì 24 febbraio, Dario Amodei, CEO di Anthropic, è stato convocato al Pentagono. Secondo Axios, la delegazione del DoW era inusualmente ampia: oltre a Hegseth erano presenti il vice segretario Steve Feinberg, il sottosegretario alla Ricerca e Ingegneria Emil Michael, il sottosegretario all’Acquisizione Michael Duffey, il portavoce Sean Parnell e il consigliere legale generale Earl Matthews.

Una composizione che segnalava quanto il governo trattasse la questione come una priorità di sicurezza nazionale. Sulla dinamica dell’incontro le versioni divergono. Un alto funzionario del DoW ha detto che la riunione non è stata calda e cordiale; una seconda fonte l’ha invece descritta come cordiale, senza voci alzate, con Hegseth che avrebbe anche elogiato le capacità di Claude.

Quel che è certo, perché confermato da più testate inclusa CBS News, è che Hegseth ha fissato il termine perentorio: accettare le condizioni del Pentagono entro le 17:01 di venerdì 27 febbraio.

CBS News, inoltre, ha riportato che Hegseth ha usato un’analogia concreta: quando il governo acquista un aereo da Boeing, il produttore non ha voce in capitolo su come viene impiegato; lo stesso principio, ha sostenuto, dovrebbe valere per i modelli di AI.

Amodei ha ribadito le due posizioni irrinunciabili di Anthropic: nessun uso di Claude per la sorveglianza di massa dei cittadini americani; nessun uso per sistemi d’arma completamente autonomi, ossia in cui sia la macchina, non un essere umano, a prendere le decisioni letali finali, senza coinvolgimento umano.

Anthropic, nel comunicato successivo alla riunione, ha dichiarato di aver condotto conversazioni in buona fede per continuare a supportare la missione di sicurezza nazionale del governo in linea con ciò che i nostri modelli possono fare in modo affidabile e responsabile.

Le due armi del Pentagono: DPA e supply chain risk

Le minacce sul tavolo sono due, con meccanismi giuridici molto diversi. La prima è l’invocazione del Defense Production Act (DPA), una legge degli anni Cinquanta originariamente concepita per mobilitare l’industria in caso di emergenza nazionale.

Secondo le fonti sentite da Axios e NPR, invocare il DPA consentirebbe al Pentagono di obbligare Anthropic a rendere disponibile il proprio modello alle forze armate, anche contro la volontà dell’azienda. Come ha spiegato un alto funzionario del DoW a NPR, in questo scenario Claude verrebbe usato punto e basta.

Il DPA, ha chiarito Axios, non eliminerebbe automaticamente le salvaguardie tecniche, ma costringerebbe Anthropic a modellare il sistema secondo le esigenze militari. L’ultima applicazione rilevante del DPA risale alla pandemia di Covid-19: usarlo contro un’azienda tech americana per ottenere accesso a un modello di AI sarebbe un caso senza precedenti. Anthropic potrebbe contestare la misura in tribunale, con esito incerto.

La seconda opzione è più radicale sul piano commerciale: designare Anthropic come rischio per la catena di approvvigionamento. Si tratta di uno status normalmente riservato ad aziende legate a potenze straniere ostili, il caso più noto è Huawei. Applicarlo a un’azienda americana di primo piano sarebbe un’anomalia storica.

Le conseguenze sarebbero a cascata: il contratto da 200 milioni verrebbe rescisso, e tutte le imprese che collaborano con il Pentagono sarebbero obbligate a certificare che Claude non rientra nei propri flussi di lavoro.

Va tenuto presente, per capire i rapporti di forza reali, secondo TIME Anthropic ha raccolto a febbraio 30 miliardi di dollari in nuovi investimenti, raggiungendo una valutazione di 380 miliardi, con ricavi annualizzati in crescita di 10 volte anno su anno. Il contratto da 200 milioni con il Pentagono è commercialmente marginale per l’azienda, il che rende la posizione di principio di Amodei economicamente sostenibile, almeno nel breve periodo.

Il Pentagono sembra stia già preparando il terreno per questa seconda opzione: il DoW ha contattato Boeing e Lockheed Martin per chiedere una valutazione della propria esposizione al modello di Anthropic. Boeing ha risposto, tramite un portavoce, che la sua divisione difesa non ha contratti attivi con Anthropic. Il Pentagono ha fatto sapere di star “predisponendo l’esecuzione di qualsiasi decisione che il segretario potrebbe prendere venerdì riguardo ad Anthropic.”

Le alternative a Claude: esistono ma l’integrazione richiede tempo

La situazione ha una contraddizione al suo interno che le fonti stesse faticano a nascondere. Claude è probabilmente il principale modello AI commerciale avanzato attualmente operativo sulle reti classificate del Pentagono. Le alternative esistono ma richiedono tempo per poter essere integrate.

Nell’estate del 2025, il Pentagono ha assegnato contratti up to $200 million a quattro aziende: Anthropic, Google, OpenAI e xAI. Google e xAI sono già sulla piattaforma GenAI.mil. OpenAI ha annunciato a febbraio l’accesso di ChatGPT alla stessa piattaforma.

La differenza fondamentale è che queste tre aziende hanno accettato la clausola richiesta dal Pentagono: uso per tutti gli scopi legali, senza restrizioni per singoli casi d’uso. xAI ha siglato l’accordo per i sistemi classificati il 23 febbraio, un giorno prima dell’ultimatum ad Anthropic.

La questione di principio: chi controlla le linee rosse?

Al di là degli aspetti contrattuali, lo scontro investe una domanda di principio che tornerà in ogni democrazia dotata di AI militare: chi ha il diritto di stabilire come viene usata una tecnologia potenzialmente letale, il produttore privato o lo Stato?

Il Pentagono ha articolato la propria posizione su più livelli. Emil Michael, sottosegretario alla Ricerca e Ingegneria, ha detto pubblicamente che le restrizioni di Anthropic potrebbero creare una dinamica in cui si inizia a usare un modello, ci si abitua al suo funzionamento, e poi, nel momento in cui ce ne fosse urgente bisogno, si scopre di non poterlo usare.

Anthropic ribatte che le proprie restrizioni non ostacolano operazioni militari legali, ma impediscono due tipologie specifiche di abuso che l’azienda considera intrinsecamente pericolose: la sorveglianza domestica di massa e le decisioni di fuoco senza supervisione umana.

Claude non è immune da hallucinations e non è abbastanza affidabile da evitare errori potenzialmente letali, come escalation involontarie o identificazioni errate di bersagli senza giudizio umano.

La politica della paura: “woke AI” come arma retorica

L’amministrazione Trump ha incorniciato lo scontro in termini ideologici, etichettando le salvaguardie di Anthropic come woke AI. Il dibattito riflette la più ampia tensione tra la politica AI dell’amministrazione Trump, orientata a rimuovere quelle che definisce regolamentazioni eccessive che frenano l’innovazione e la posizione di Anthropic.

Va precisato che anche Google, OpenAI e le altre aziende mantengono policy interne sulla sicurezza AI ancora in evoluzione: il quadro non è quello di un unico bastione contro chi ha già ceduto, ma di una gamma di posizioni che si stanno ridefinendo sotto pressione concorrenziale e politica.

Tensioni interne: dimissioni e revisione della Responsible Scaling Policy

Lo scontro con il Pentagono coincide con segnali di tensione interna. Il 9 febbraio Mrinank Sharma, responsabile del team di ricerca sulle salvaguardie di Anthropic (Safeguards Research Team), si è dimesso pubblicando su X un’analisi preoccupante: “Il mondo è in pericolo. E non solo a causa dell’AI, o delle armi biologiche, ma da una serie di crisi interconnesse che si stanno dispiegando in questo preciso momento.”

Ha aggiunto di aver osservato, durante il proprio lavoro, quanto sia difficile “lasciare che i propri valori governino davvero le proprie azioni”.

Il 25 febbraio, nel pieno dello scontro con il Pentagono, Anthropic ha pubblicato una versione radicalmente riscritta della propria Responsible Scaling Policy (RSP), il documento fondativo sulla sicurezza AI dell’azienda.

TIME ha ottenuto un’intervista esclusiva con Jared Kaplan, chief science officer e co-fondatore, che chiarisce la portata del cambiamento: l’azienda ha eliminato l’impegno centrale che aveva preso nel 2023, ossia non addestrare mai un sistema AI senza poter garantire in anticipo l’adeguatezza delle misure di sicurezza.

La motivazione strutturale è quella di chi ha perso la scommessa istituzionale: le regolamentazioni nazionali e internazionali che Anthropic sperava di ispirare non si sono materializzate, l’amministrazione Trump ha scelto la deregulation, e restare fermi avrebbe significato perdere rilevanza senza ridurre il rischio complessivo.

Il contesto competitivo: chi ha già accettato le condizioni del Pentagono

Anthropic non è la prima azienda a fare i conti con la pressione del Pentagono. Nel 2018 Google fu costretta ad abbandonare il contratto Project Maven, l’analisi di filmati di droni con machine learning, dopo una rivolta interna dei dipendenti.

Nel 2024, Google ha fatto marcia indietro, eliminando le restrizioni sull’uso dell’AI per scopi di difesa. Oggi è attiva su contratti classificati e non classificati con il DoW, con Gemini indicato da fonti interne come principale alternativa a Claude.

OpenAI ha rimosso nel 2024 il divieto esplicito di uso militare e bellico, ma il suo coinvolgimento diretto in contratti classificati del DoW resta indiretto: i suoi modelli vengono usati da Microsoft per attività di difesa altamente classificate, senza che OpenAI sia parte diretta di quei contratti.

xAI di Elon Musk ha accettato senza riserve la clausola “tutti gli scopi legali” e, insieme a SpaceX, partecipa a gare per tecnologie di sciami di droni. Un funzionario del Pentagono ha confermato a CBS News che Grok è disponibile per contesti classificati.

Tre possibili scenari nello scontro Anthropic-Pentagono

Al momento in cui scriviamo Anthropic mantiene una posizione pubblica conciliatoria, dichiarando di condurre conversazioni in buona fede.

Axios segnala che, dietro le quinte, permane l’ambiguità strategica: il Pentagono vuole punire Anthropic ma non vuole perdere Claude.

Così ha scritto Amodei: “Non possiamo in buona coscienza accogliere la loro richiesta”.

“È prerogativa del Dipartimento selezionare gli appaltatori più in linea con la propria visione. Tuttavia, dato il valore sostanziale che la tecnologia di Anthropic offre alle nostre forze armate, speriamo che riconsiderino la loro decisione. La nostra forte preferenza è quella di continuare a servire il Dipartimento e i nostri combattenti, con le due garanzie richieste.”

Tre scenari sembrano plausibili. Il primo: un compromesso tecnico, con Anthropic che sviluppa una versione del modello per uso militare priva delle restrizioni contestate, biforcando la propria linea di prodotti. Questo salverebbe il contratto e, almeno formalmente, la coerenza dei principi aziendali.

Il secondo: la resa, con l’accettazione della clausola tutti gli usi legali. Un esito che consoliderebbe il controllo del Pentagono sull’AI militare, ma a costo di reputazione, talenti ricercatori e credibilità istituzionale. Sembra improbabile.

Il terzo: lo scontro aperto, con il Pentagono che designa Anthropic come rischio per la catena di approvvigionamento o invoca il DPA. Quest’ultimo esito aprirebbe un contenzioso legale senza precedenti, costringendo i tribunali americani a pronunciarsi su una domanda finora evasa: può il governo federale obbligare un’azienda privata a rimuovere le salvaguardie di sicurezza incorporate nel proprio prodotto?

Update 28 febbraio: OpenAI si accorda con limiti

Giovedì, Altman ha inviato una nota ai dipendenti in cui affermava che l’intelligenza artificiale non dovrebbe essere utilizzata per la sorveglianza di massa o per armi letali autonome, pur concordando con la posizione del Pentagono secondo cui le aziende private non dovrebbero controllare la politica del governo degli Stati Uniti.

Venerdì, Altman è apparso sulla CNBC e ha sostenuto con più forza Anthropic, fondata da ex dipendenti di OpenAI. “Nonostante tutte le differenze che ho con Anthropic, mi fido di loro come azienda e penso che abbiano davvero a cuore la sicurezza”, ha affermato.

Poi ha stretto un accordo con il Dipartimento della Difesa, ma OpenAI ha anche affermato di aver trovato un modo per garantire che le sue tecnologie rispettassero i suoi principi di sicurezza installando specifici dispositivi di protezione tecnici sui suoi sistemi.

Diversi dipendenti delle big tech hanno espresso solidarietà per Anthropic e fatto pressioni sulle proprie aziende per resistere al Governo.

Le implicazioni per l’Europa e la governance globale dell’AI

Per l’Europa, il caso Anthropic ha una rilevanza che supera le dinamiche interne americane. Aggiungiamo una precisazione importante: l’AI Act europeo, all’articolo 2, esclude esplicitamente dal proprio campo di applicazione i sistemi AI utilizzati esclusivamente per scopi militari, di difesa e di sicurezza nazionale.

L’AI Act, quindi, non vieta le pratiche in discussione nel caso Anthropic-Pentagono, perché non ha giurisdizione su quell’ambito. L’uso militare dell’AI in Europa resta regolato principalmente dal diritto internazionale umanitario, dal diritto nazionale dei singoli Stati membri, dalle norme di procurement e dai regolamenti interni delle forze armate.

Il rischio per l’Europa è più indiretto: se gli Stati Uniti normalizzano l’uso dei foundation model senza salvaguardie per applicazioni militari, si creerebbe una pressione competitiva sulle aziende europee che sviluppano o acquistano AI per la difesa che potrebbe generare una potenziale divergenza nelle norme di interoperabilità nelle alleanze NATO.

Conclusione: la Silicon Valley non può ignorare il campo di battaglia

Lo scontro tra Hegseth e Amodei non è una disputa contrattuale. Si tratta della prima battaglia aperta per definire chi ha l’ultima parola sulle regole di ingaggio dell’AI militare: i governi eletti, con il loro mandato democratico e la responsabilità costituzionale sulla conduzione delle guerre, oppure le aziende private che quelle tecnologie hanno costruito e che, spesso meglio dei generali, ne conoscono i limiti tecnici.

Nessuna delle due risposte è priva di rischi. Un governo con accesso illimitato a sistemi AI senza guardrail è esposto a escalation involontarie, a errori operativi amplificati dalla velocità dell’AI, e al rischio di abusi su cui è difficile fare trasparenza.

Un’azienda privata con potere di veto su operazioni militari statali non risponde a nessun mandato democratico e potrebbe essere influenzata da interessi commerciali o visioni individuali dei fondatori.

Quello che sembra certo (…) è che questo caso farà scuola. Le prossime ore diranno se Anthropic è davvero l’azienda che vuole essere oppure no.

da: Agenda Digitale del 27 /02/ 2026


Condividi su:

Scarica PDF:

image_pdf
Cerca

Altri post

Iscriviti alla newsletter

E ricevi gli aggiornamenti periodici

NEWSLETTER NUOVI LAVORI – DIRETTORE RESPONSABILE: PierLuigi Mele – COMITATO DI REDAZIONE: Maurizio BENETTI, Cecilia BRIGHI, Giuseppantonio CELA, Mario CONCLAVE, Luigi DELLE CAVE, Andrea GANDINI, Erika HANKO, Marino LIZZA, Vittorio MARTONE, Pier Luigi MELE, Raffaele MORESE, Gabriele OLINI, Antonio TURSILLI – Lucia VALENTE – Manlio VENDITTELLI – EDITORE: Associazione Nuovi Lavori – PERIODICO QUINDICINALE, registrazione del Tribunale di Roma n.228 del 16.06.2008

Iscriviti alla newsletter di nuovi lavori

E ricevi gli aggiornamenti periodici