Alle dinamiche intrinseche che rallentano l’impiego di AI nel mondo militare, si aggiungono preoccupazioni politiche, etiche e legali. Ma la strada sembra tracciata perché gli operatori militari sono sempre più dipendenti dalla ineguagliabile capacità computazionale di AI, oggi al loro servizio
La fantascienza è ricca di suggestioni sull’uso per scopi militari dell’intelligenza artificiale, e quindi di computer e robot parzialmente o totalmente autonomi, a partire dalle saghe di Terminator e Matrix. Gli odierni investimenti nel campo civile, specialmente da parte dei colossi statunitensi dell‘Information Communication Technology (ICT) come Meta, Amazon o l’impero di Elon Musk, spingono il progresso tecnologico quanto a big data e machine learning che sono alla base dell’Artificial Intelligence (AI), sviluppando tecnologie teoricamente a disposizione anche delle forze armate americane.
Già oggi il software è un elemento fondamentale di carri armati, elicotteri, sistemi missilistici, caccia e navi da guerra prodotti dall’industria dell’aerospazio e difesa per le forze armate più avanzate, a partire da quelle dei Paesi Nato. Al tempo stesso la Cina fa leva sul suo capitalismo autoritario per convogliare investimenti pubblici e privati, e i dati presi dai cittadini, nello sviluppo di un AI cinese preoccupando non poco i Paesi occidentali, dallo spazio Euro-Atlantico a quello dell’Indo-Pacifico. Eppure una grande potenza militare come la Russia combatte contro l’Ucraina da oltre un anno una guerra su larga scala, ad alta intensità, con ingenti perdite umane e materiali, senza grande ricorso al ICT, e men che meno all’AI. Dunque in futuro, come entrerà in guerra l’intelligenza artificiale? Con droni autonomamente in grado di gestire attacchi, o come sostegno all’operatore umano? Ci sono diversi fattori a favore e contro l’impiego dell’AI nei conflitti armati, che si bilanciano tra loro.
Come entrerà in guerra l’intelligenza artificiale?
Il principale vantaggio di tale tecnologia è la gestione di un’enorme quantità di dati diversi in tempi estremamente rapidi, con una capacità computazionale superiore a quella di qualsiasi militare per quanto addestrato e giovane. La difesa contro missili ipersonici è solo uno dei tanti esempi al riguardo: di fronte a un attacco del genere lanciato dalla Russia, come già avvenuto più volte contro l’Ucraina, o dalla Cina, le forze armate Nato possono contare solo su avanzate capacità computazionali per calcolarne la rotta, i possibili impatti, e il migliore – o unico – punto di intercetto balistico sulla cui base attivare la difesa area e missilistica integrata. Più in generale, con il moltiplicarsi dei sensori aerei, terrestri, navali e spaziali, aumenta la necessità di data fusion per fornire all’operatore un quadro integrato della situazione che sia intellegibile, passando quindi dal dato all’informazione e alla conoscenza. L’AI è e sarà dunque fondamentale per ottenere e mantenere una superiorità informativa che rappresenta un vantaggio determinante in un’operazione militare, tanto più in una prospettiva di conflitti multi-dominio con operazioni coordinate nei domini terrestre, navale, aereo, spaziale e cibernetico.
In aggiunta, l’AI continuerà sempre di più a facilitare e accelerare l’automazione di tutte quelle attività militari di routine che, seppur meno delicate delle azioni di combattimento, contribuiscono all’efficienza ed efficacia complessiva dello strumento militare. Basti pensare che le attuali fregate della marina militare italiana hanno un tonnellaggio, e quindi una dimensione, ben maggiore della generazione precedente ma ospitano un equipaggio più piccolo proprio grazie all’automazione di molti processi e funzioni del sistema-nave. Più in generale, l’AI migliorerà manutenzione di mezzi, logistica, gestione delle infrastrutture e del personale, come già sta facendo per altre grandi organizzazioni complesse specie nel settore privato.
Il settore civile
Un altro fattore a favore dell’introduzione nel mondo militare dell’AI è la sua ampia e crescente disponibilità nel settore civile. Gli ingenti costi, non ricorrenti, per svilupparla sono già sostenuti da aziende private che hanno un mercato di sbocco ben più ampio della difesa, da e-commerce alla sanità, dalla finanza all’energia e ai trasporti. Per le forze armate è quindi in teoria possibile acquisire tecnologie mature sostenendo solo i costi della necessaria “customizzazione” per rispondere a specifici requisiti militari. Come per l’invenzione del telegrafo, dell’energia elettrica o del trasporto ferroviario nei secoli scorsi, il modus operandi delle forze armate è e sarà sempre più influenzato da una innovazione tecnologica che non guidano ma di cui beneficiano.
Nello spazio e sott’acqua
Un fattore determinante per l’impiego di sistemi autonomi basati sull’AI risiede nelle caratteristiche fisiche di domini operativi che di per sé sono ostili alla presenza umana, a partire da quello spaziale e subacqueo. Nello spazio è decisamente meno complicato e costoso lanciare satelliti senza astronauti a bordo piuttosto che shuttle pilotati o stazioni orbitanti popolate. I satelliti diventano sempre più complessi, devono processare una quantità crescente di dati, e dovranno possedere una maggiore capacità di manovrare in orbita per evitare i detriti – nonché potenziali attacchi cinetici o elettronici – e di interagire per attività di manutenzione o rifornimento. Gli assetti spaziali contano e conteranno quindi sempre di più sull’AI per eseguire in autonomia le loro operazioni. Nei fondali marini i robot incaricati di monitorare una pipeline o un cavo internet sottomarino, e un domani di difendere tali infrastrutture critiche da un eventuale attacco come quello avvenuto nel 2022 contro il gasdotto North Stream, devono essere sempre più autonomi. Anche perché sottacqua le comunicazioni wi-fi non sono fisicamente possibili, e usando solo lo spettro acustico è difficile – se non impossibile – gestire in remoto operazioni complesse. La tecnologia oggi rende possibile l’attività di droni subacquei a livelli impensabili pochi anni fa. Un terzo esempio riguarda le aree contaminate da un eventuale attacco o incidente nucleare, biologico, chimico o radiologico. Ad esempio, se il conflitto in Ucraina portasse a esplosioni nelle centrali nucleari del Paese, sistemi autonomi sarebbero fondamentali in prolungate operazioni di ricerca dei feriti ed evacuazione medica in zone contaminate e vicine alla linea del fronte, riducendo così il rischio per gli operatori umani e salvando altre vite.
La guerra cibernetica
Ultimo ma non ultimo, l’AI è fondamentale per la guerra cibernetica, che trova applicazione proprio nel dominio operativo immateriale creato dall’ICT. Il mondo dei virus e degli antivirus, dei software e dei firmware, è esattamente quello in cui una AI con capacità computazionali superiori e l’abilità di imparare rapidamente dall’esperienza garantisce un vantaggio strategico a chi la impiega. Entrare nel sistema di controllo di un mezzo militare piuttosto che nell’intera catena di comando e controllo delle forze armate, o anche di una infrastruttura critica come le centrali energetiche, per manomettere il bersaglio, renderlo inutilizzabile o usarlo ai propri fini è lo scenario migliore per l’attaccante e l’incubo del difensore, e l’AI è la chiave per trasformare questo scenario in realtà.
I motivi che frenano AI nel mondo militare
Se l’impiego dell’AI nei conflitti è sempre più fattibile e porta benefici così importanti e pervasivi, perché stenta ad affermarsi nel mondo militare? Il primo motivo è proprio il rischio collegato alla sicurezza cibernetica. Più autonomia si affida all’intelligenza artificiale nella gestione di un assetto militare, che sia un drone aereo o subacqueo piuttosto che un satellite, maggiore è il danno che un attacco cibernetico di successo potrebbe apportare alla forza armata. L’idea di perdere il controllo di un drone armato è uno degli esempi che più allarmano – comprensibilmente – gli oppositori dell’uso dei cosiddetti “killer robot“.
Meno nota è la ritrosia degli stessi ufficiali militari a dare troppo spazio all’intelligenza artificiale a danno delle mansioni di pregio a loro stesse affidate, specie in Europa ma non solo. Gli attuali velivoli di quinta generazione F35 sono stati disegnati alla fine degli anni ’90 quando le potenzialità di droni aerei erano ancora limitate, e non c’era stata la rivoluzione informatica cui abbiamo assistito nell’ultimo ventennio, e anche per questo motivo hanno un pilota a bordo. La prossima generazione di caccia potrebbe in teoria compiere il salto tecnologico verso un velivolo più o meno autonomo, o per lo meno pilotato in remoto, risparmiando prezioso spazio – e i relativi costi – per ospitare il pilota a bordo. Ma gli attuali vertici delle aeronautiche militari occidentali, composti per la maggior parte da ex piloti, non intendono affatto privare le future generazioni di aviatori dell’esperienza del volo che è la quintessenza dell’aeronautica come forza armata. Perciò i principali programmi per la prossima generazione di caccia, quali il Global Combat Air Programme anglo-italo-giapponese e il Future Combat Air System franco-tedesco-spagnolo, oggi puntano per il 2035/2040 ancora a un aereo con il pilota a bordo, che sia il fulcro di un sistema di sistemi in cui i droni faranno la parte dei gregari – loyal wingman – per il Top Gun del futuro. Un discorso simile si applica agli ufficiali di marina che tendenzialmente non vogliono cedere il timone a navi o sottomarini senza equipaggio. Le marine Nato puntano piuttosto a droni aerei, navali e subacquei per ampliare le capacità di sorveglianza e di intervento della flotta, fermo restando che la nave o il sottomarino resterà l’hub da cui l’equipaggio gestirà una squadra di droni di varie caratteristiche e con diversi livelli di autonomia. Gli Stati Uniti sono più ambiziosi nell’ipotizzare una nave senza equipaggio, ma gli ostacoli sono molti al riguardo.
Più in generale, la piena applicazione dell’AI richiede cambiamenti dottrinali e organizzativi radicali, impegnativi e di lungo periodo, sia a livello nazionale che a livello Nato. Ciò è particolarmente difficile per l’esercito che, a differenza di marina e aeronautica, non è basato su un numero limitato di piattaforme complesse che già si prestano all’impiego dell’AI – come i caccia, le navi o i sottomarini – ma su un insieme molto più variegato di assetti, dagli elicotteri ai carri armati, dai blindati all’equipaggiamento del soldato singolo. Inoltre, gran parte dei mezzi attuali delle forze armate Nato sono stati disegnati senza tenere presente l’AI, e non è facile impiantare su un hardware vecchio di anni o decenni – e che rimarrà in servizio per altri decenni – dei software che necessitano di determinate condizioni per funzionare, ad esempio in termini di alimentazione elettrica.
Etica e legalità
A tali dinamiche tecnologiche e militari si aggiunge un insieme di forti preoccupazioni di carattere politico, etico e legale su futuri assetti guidati dall’intelligenza artificiale. Quali sono le implicazioni del dare all’AI la facoltà di premere il grilletto? Su chi ricade in quel caso la responsabilità dell’attacco militare: sul drone autonomo, sul suo programmatore, o sul vertice militare che ha deciso di impiegarlo nelle operazioni? Se vi fossero vittime civili, riconducibili o meno a un errore della macchina, di chi sarebbe la colpa? In caso di incidenti nelle attività di addestramento sul territorio nazionale, come funzionerebbe l’assicurazione? Nessun governo democratico intende aprire questo vaso di Pandora, e anche per questo i fattori contrari bilanciano ampiamente quelli a favore di una massiccia introduzione dell’AI nel mondo della difesa.
La Nato
Ciò non vuol dire che si pone un freno alla ricerca tecnologica sulle applicazioni militari dell’intelligenza artificiale, anzi: gli Stati Uniti stanno intensificando gli sforzi al riguardo per mantenere il proprio vantaggio sulla Cina, i principali alleati europei della Nato cercano di tenere il passo per mantenere le proprie forze armate in grado di operare insieme a quelle statunitensi in conflitti complessi e multi-dominio, e l’Alleanza atlantica si è dotata nel 2021 di una propria strategia riguardo all’AI.
A conti fatti, l’equilibrio raggiunto nei Paesi occidentali, in primis quelli europei, quanto all’uso militare dell’intelligenza artificiale è quindi basato sul principio del “human in the loop“, o per lo meno “human on the loop“. Nel primo caso, l’operatore militare è pienamente dentro il processo decisionale e ha l’ultima parola sull’uso di un assetto militare, che sia un missile, un siluro o una bomba. Nel secondo caso, la persona in divisa supervisiona il processo decisionale condotto dall’AI, e può in ogni momento fermarlo o modificarne l’esito finale. In entrambi i casi, non c’è una totale autonomia del sistema d’arma, e la responsabilità operativa dell’attacco segue la catena di comando militare e risale in ultima istanza fino al vertice politico, come nel caso di un bombardamento condotto da aerei con pilota a bordo o tramite missili lanciati dal comandante di una nave.
AI: supporto al processo decisionale umano
L’intelligenza artificiale sembra dunque essere destinata ancora per molto tempo a svolgere la funzione, importantissima, di supporto al processo decisionale umano. Raccogliere, fondere e processare i dati per trasformarli in informazioni utile all’operatore, gestire la missione degli assetti – dalla rotta da seguire alle manovre da eseguire – sotto l’occhio vigile dell’uomo o della donna in divisa, elaborare scenari complessi e dettagliati, proporre diverse opzioni operative con i rispettivi pro e contro, valutare i possibili danni e conseguenze di determinate azioni. Questi saranno probabilmente i molteplici ruoli che svolgerà l’AI nei conflitti militari del prossimo futuro. Ruoli importanti, pervasivi e crescenti, ma in definitiva sempre al servizio del decisore umano.
Si possono quindi dormire sonni tranquilli rispetto agli scenari di Matrix e Terminator? Non è detto. Una volta che l’operatore militare perde la capacità di valutare come e perché l’AI è arrivata a determinate conclusioni, che non è più in grado di esaminare da solo dati troppo numerosi e complessi, che non ha più contezza dei bias cognitivi che possono indurre l’AI all’errore, sarà sempre più dipendente da e sottomesso alla macchina. Allora quanto spazio sarà realmente lasciato alla valutazione dell’essere umano? Quando tra 20 anni l’AI del Pentagono affermerà che l’ultimo spostamento dei sottomarini nucleari cinesi al 99% delle possibilità porta a un lancio di missili ipersonici verso Los Angeles, sarà possibile per il Jack Ryan di turno impedire la terza guerra mondiale convincendo i vertici militari cresciuti nella dipendenza dalla tecnologia che si tratta di un errore del computer?
Questo articolo è pubblicato anche sul numero di aprile/giugno di eastwest
Puoi acquistare la rivista sul sito o abbonarti