Lo sviluppo dell’Intelligenza artificiale (IA) porta con sé nuove opportunità ma anche tanti rischi. In ambito militare, settore in cui pure l’IA sta diventando una realtà sempre più pervasiva, i rischi appaiono largamente prevalenti e comportano, se possibile, un’ulteriore allarmante disumanizzazione della guerra.
Il controllo umano significativo
Il giudizio umano nella decisione – l’unico che può avere una valenza etico-morale, a differenza di quello di una macchina – viene infatti gradualmente compresso. “Negli ultimi anni, con l’utilizzo dei droni, c’è già stato un passo che ha modificato molto il così detto warfare”, conferma ai media vaticani Francesco Vignarca, esperto del settore e coordinatore della Rete Italiana Pace e Disarmo. Si tratta di veicoli senza pilota, aerei ma sempre più anche terrestri e navali, per i quali rimane sempre un qualche controllo umano seppure a distanza. “Mentre con i più innovativi sistemi d’arma legati all’IA siamo sempre più vicini alla totale autonomia e ad una completa disumanizzazione”, ammonisce Vignarca, spiegando che non si è ancora arrivati ai “killer robots” ma con le armi letali autonome (Laws) si procede a passi spediti verso una pericolosa automatizzazione dei sistemi nei quali “la barriera finale di controllo umano è sempre meno evidente”.
La posizione della Santa Sede
L’attenzione della Santa Sede, in considerazione delle implicazioni etiche di questi sviluppi tecnologici, è molto elevata. “Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano”, scandì con chiarezza Papa Francesco nel giugno del 2024 nel suo intervento davanti ai leader del G7 in Puglia. E l’attenzione ai rischi e alle opportunità dell’IA è spiccata nel magistero di Papa Leone XIV. L’applicazione dell’IA in ambito militare — ha dichiarato nei giorni scorsi l’Osservatore permanente della Santa Sede all’Onu, arcivescovo Gabriele Caccia — genera “un livello di incertezza senza precedenti” e “pone una grave sfida che deve risvegliare la consapevolezza etica dell’intera comunità internazionale” in quanto si tratta di armamenti che operano “senza alcun controllo umano” e quindi “travalicano ogni limite legale, securitario, umanitario e, soprattutto, etico”.
Effetti collaterali
Queste innovazioni, applicate nei sistemi di comando e controllo militare, riducono infatti i tempi di decisione e diminuiscono la supervisione umana aumentando quindi il rischio di errori. A pagare le conseguenze sono sempre le vittime civili che rischiano di subire la sorte di “effetti collaterali” dei conflitti senza un’adeguata tutela del diritto internazionale umanitario. I principi cardine di questo corpo normativo — distinzione, necessità e precauzione — non appaiono compatibili con lo sviluppo di nuovi sistemi d’arma automatici. La Santa Sede è da tempo in prima linea nel chiedere uno strumento giuridicamente vincolante che vieti l’uso delle armi letali autonome. “I sistemi d’arma autonomi — ha chiarito l’Osservatore permanente presso le organizzazioni internazionali con sede a Ginevra, arcivescovo Ettore Balestrero — non possono essere considerati entità moralmente responsabili” in quanto la persona umana, dotata di ragione, “possiede una capacità unica di giudizio morale e di presa di decisioni etiche che non può essere replicata da nessun insieme di algoritmi, non importa quanto complessi”.
Come si muove l’Onu
Anche quest’anno alle Nazioni Unite dovrebbe essere votata una risoluzione che esprime preoccupazione e ipotizza la necessità di approvare una normativa internazionale sul tema. Lo scorso anno questa risoluzione è stata votata da 166 Paesi membri. “Purtroppo non credo che si sia vicini ad un accordo per regolamentare la materia”, commenta ai media vaticani Fabrizio Battistelli, presidente di Archivio Disarmo. “Alcuni Stati — spiega — dicono che non c’è da regolare nulla dell’intelligenza artificiale perché tutto sarebbe già regolato dal diritto internazionale e umanitario. Siamo tutti difensori del diritto internazionale umanitario, ma questo non toglie che ci sono delle modalità che questo sistema normativo — nato nel secondo dopoguerra — non poteva prevedere. Tipo l’assunzione di responsabilità nel caso di un colpo portato, attuato e magari persino deciso dall’IA: la responsabilità di chi è in questi casi? Questi sono aspetti drammatici che, paradossalmente, stanno preoccupando più i militari dei politici”.
Applicazioni concrete
L’IA e i sistemi d’arma autonomi sono già una nuova realtà della guerra. Esempi concreti vengono in particolare dalla drammatica situazione a Gaza, dove diversi studi hanno descritto l’utilizzo da parte israeliana di sofisticati sistemi come Habsora e Lavender. “Si tratta di sistemi di targeting con l’IA — spiega Vignarca —, che agiscono sia nel senso di definire quale è l’edificio che può essere obiettivo di un attacco sia il target sulla persona, cioè individuano quale è una persona combattente considerata da attaccare”. Siamo ancora nel campo di sistemi di individuazione dell’obiettivo, che non sparano da soli. “Il problema è che l’operatore umano che si vede ricevere magari con velocità altissime, tipo ogni 30 secondi, l’indicazione di un target, alla fine si assuefà e dice sempre di sì perché tende a fidarsi dell’IA. Quindi questo controllo umano che resiste alla fine non è più significativo”.
Il tema della responsabilità
Altro esempio sono i sistemi d’arma semi-autonomi, come le loitering munitions (munizioni circuitanti), usate ad esempio nel conflitto in Ucraina. “Anche qui c’è un netto abbassamento della soglia di controllo umano”, osserva l’analista, introducendo un altro tema di riflessione: “Mentre prima quando bisognava dispiegare gli uomini o i mezzi sul terreno, vedi il dibattito sui così detti “boots on the ground” (stivali sul terreno), c’era la paura di perdere gli uomini inviati al fronte, con questi sistema d’arma sempre meno gestiti dall’uomo si abbassa la soglia e si agevolano le decisioni sugli interventi perché al massimo si perde un drone o una munizione”. E tutto questo non tiene conto che dall’altra parte ci sono sempre obiettivi umani, vittime che rischiano di essere mal tutelate dalle norme internazionali. “Al di là dei sistemi d’arma — conclude Vignarca — quello che bisogna definire a livello normativo è quale è l’intervento umano significativo, cioè quale è il tipo di controllo che comunque in qualsiasi sistema d’arma — che sia IA, che sia un drone, che sia una loitering munition — deve rimanere. Cioè fino a che punto si può delegare a un sistema tecnologico e automatizzato, e fino a che punto invece il controllo umano significativo debba esserci perché si possa capire la situazione e perché si possano attribuire delle responsabilità”, che siano nella catena di comando militare, nello Stato di appartenenza o nell’azienda fabbricante di armi.
*da Vatican News Newsletter 30/10/2025
AI, sarebbe insensato definirla bene comune?
Rispetto alle tre grandi transizioni – quella demografica, quella ambientale e quella tecnologica che impattano ciascuna
