L’interazione dei sistemi di intelligenza artificiale nel processo decisionale militare

L’intelligenza artificiale è una componente importante nei sistemi di difesa di tutto il mondo, ritenuta potenzialmente in grado di plasmare il futuro del comparto e delle capacità organizzative delle stesse Forze Armate, rivoluzionando il sistema di conduzione dei conflitti armati.

I sistemi d’arma autonomi letali

In campo militare, sono abbastanza noti i sistemi d’arma autonomi letali (LAWS), [1] così definite tutte quelle armi progettate per elaborare una serie di dati attraverso i quali possono attivarsi e portare a termine azioni letali senza l’intervento umano diretto. In ambito ONU si dibatte da parecchio tempo sull’etica dei LAWS e sul ruolo del controllo umano significativo (MHC) [2], soprattutto in relazione al rapporto tra l’etica di un loro utilizzo e l’interpretazione del diritto internazionale umanitario dal momento che già nel 2018 [3], le Nazioni Unite si erano espresse richiedendone il divieto d’uso e, più recentemente, nel 2023, il rappresentante generale aveva ribadito che era auspicabile l’adozione di normative multilaterali per vietarne il loro uso, rappresentando una minaccia per i diritti fondamentali [4].

Nel corso degli anni, le principali obiezioni al loro uso hanno riguardato la capacità di attivazione autonoma a fronte di potenziali rischi dovuti a errori di impostazione, valutazione e mancata supervisione, che potrebbero condurre ad un uso indiscriminato della forza, con ripercussioni per civili e infrastrutture. Secondo tale visione, l’intelligenza di tipo emotivo di un essere umano che prende le decisioni in teatro di guerra è profondamente diversa da quella di algoritmi e software: questi ultimi hanno notevoli limiti a scindere e riconoscere principi di disumanità conseguenti ad attacchi indiscriminati alla popolazione civile o a dosare le capacità distruttive se non strettamente preimpostate in fase di programmazione. I limiti citati, l’assenza di empatia con tutti gli attori in teatro, i rischi di attacchi indiscriminati e il mancato riconoscimento di leadership, norme e situazioni in evoluzione, potrebbero seriamente dare luogo ad azioni perfettamente inquadrabili in crimini di guerra, con conseguente escalation di conflitti e instabilità globali.

La prospettiva del processo decisionale autonomo

Parallelamente alla problematica legata ai sistemi d’arma autonomi, sta emergendo una più complessa tematica ad essa correlata, ovvero quella del ricorso agli strumenti basati sull’intelligenza artificiale, non soltanto nella condotta di singole operazioni, bensì ad un livello ancora più elevato, cioè quello del processo decisionale anche di tipo strategico. L’eccezionalità di tale ambito è racchiusa in un concetto molto semplice: non si tratta più di argomentare su identificazione, localizzazione, scelta dell’obiettivo; si tratta invece di una prospettiva che si pone ben oltre le linee di demarcazione finora considerate.

I futuri sistemi decisionali basati sull’IA passerebbero ad analizzare congiunture economiche, previsioni di perdita di potere/influenza in determinate aree geografiche, valutazioni su rapporti di forza, valutazioni su potenziali successi e perdite, per poi intraprendere le azioni di contrasto (o di prevenzione) ritenute più opportune, sempre sulla base di valutazioni algoritmiche. L’introduzione di tali sistemi complessi potrebbe portare a diversi scenari. In taluni casi i sistemi cosiddetti di supporto alle decisioni, basati sull’IA, già esistenti, potrebbero avere uno sviluppo tale da indurre i decisori a decidere per un impegno bellico prospettando una serie di valutazioni e di analisi vincolanti. In altri, lo sviluppo di nuovi e più sofisticati sistemi basati sull’IA, potrebbero portare a decisioni sul ricorso alla forza in risposta ad attacchi informatici.

Altra opportunità (seppur allo stato residuale ma contemplata nelle riflessioni del settore) potrebbe essere offerta attraverso suggerimenti in materia di risposta nucleare automatizzata, guidata dall’IA, a prescindere dalla decisione umana [5]. Si tratta quindi di un cambiamento di prospettiva che influirà prioritariamente sulle potenze nucleari, per quanto riguarda le loro decisioni di giungere a un conflitto (sia esso ti tipo convenzionale o nucleare) e, conseguentemente, anche di tutti gli altri stati.

IA e Diritto Internazionale Umanitario

Sull’uso militare dell’intelligenza artificiale e più precisamente circa la compatibilità col diritto internazionale umanitario, attualmente si evidenziano approcci diversi. Tra questi, emerge il ricorso alla dicotomia uomo-macchina con la tendenza a cercare di attribuire, a ognuno di essi, il ruolo di migliore o peggiore interprete. Analogamente, si cerca di valutare se un sistema IA sia sostanzialmente in grado di superare gli standard umani per una migliore e corretta applicazione del diritto umanitario (con riferimento ai principi di distinzione, precauzione e proporzionalità). In entrambi i casi emerge una comune tendenza ad antropomorfizzare i sistemi IA [6] o addirittura a prendere posizione unicamente pro o contro l’uso degli stessi, con il rischio di impedire la comprensione di una realtà, quella socio-tecnologica dei conflitti armati, che meriterebbe di essere indagata con maggiore percezione e, probabilmente da altra prospettiva.

Potrebbe giovare in tal senso lo spostamento della riflessione verso l’interazione tra sistema umano e intelligenza artificiale [7], in parte semplificata dalle riflessioni già avviate in merito ai LAWS. Questo aspetto, sta acquisendo maggior rilievo, dal momento che molte delle sfide tecnologie attuali non riguardano unicamente le prestazioni dei sistemi IA ma una più globale interazione tra sistema umani e processi di IA, all’interno della quale giocano diversi fattori esterni quali, ad esempio, il tipo di attività svolta, le caratteristiche dell’ambiente operativo, la durata dell’implementazione. Si tratta quindi di un tentativo di superare la citata dicotomia proprio per il fatto che restando legati ad essa, non risulterebbe possibile cogliere appieno la realtà in cui esseri umani riescono ad agire nell’ambito di un sistema concepito per far coesistere forme di esistenza umana e tecnologiche.

La tendenza ad antropomorfizzare i sistemi, peraltro, produce ulteriori conseguenze legate al linguaggio usato nel descrivere alcuni di questi sistemi con riferimento alle finalità. Termini quali “addestramento”, “autonomia”, “neuroni”, “memoria”, inducono a pensare che essi possano avere una propria “mente” e tale idea ha delle inevitabili ripercussioni sotto il profilo del diritto, ad esempio, qualora ci si riferisca a sistemi aventi la capacità di “prendere decisioni comprendenti l’uso della forza”, o rispettare il “diritto internazionale umanitario”, attribuendo erroneamente ad essi, autonome capacità di pensiero [8]. Il ragionamento umano infatti non può essere confuso con un ragionamento di tipo probabilistico” dei sistemi IA.

Questo tipo di approccio legato all’interazione è alla base del rapporto pubblicato nel 2024 dalla Geneva Academy e dal Comitato Internazionale della Croce Rossa, su “Intelligenza Artificiale e tecnologie correlate nel processo decisionale militare sull’uso della forza nei conflitti armati” [9], che induce a considerare come non tutte le sfide associate ai limiti tecnici e all’interazione tra sistema umano e IA possano essere sempre superate, ponendo anche delle riflessioni su eventuali limitazioni all’uso legittimo dei sistemi IA nel processo decisionale militare, che potrebbe essere circoscritto a determinati contesti e sottoposto comunque a vincoli per quanto riguarda le funzioni di apprendimento continuo. Analogamente potrebbe essere richiesto di non oltrepassare alcune soglie di velocità nel processo decisionale militare al fine di consentire le opportune valutazioni e le compatibilità al diritto umanitario internazionale (specie in caso di attacchi specifici) e, infine, di migliorare la competenza tecnica del personale militare affinchè possa interagire in modo critico con i risultati dei sistemi in uso.

Vantaggi e implicazioni nelle più recenti ricerche

Nel 2023, l’Australian National University [10], previo finanziamento dal Dipartimento della Difesa Australiano ha avviato un interessante progetto di ricerca che si concluderà nel 2025, denominato “Anticipating the Future of War: AI, Automated Systems, and Resort-to-Force Decision Making” [11]. Il progetto, parte da una accurata analisi delle tecnologie emergenti nel settore specifico dell’intelligenza artificiale applicata al contesto militare e dei potenziali vantaggi del loro utilizzo, in termini di analisi predittive relativamente a variabili strategiche chiave, minacce previste, rischi di inerzia, proporzionalità delle potenziali risposte, costi delle missioni e mira a evidenziare e indagare (questo è l’aspetto di assoluto interesse) le problematiche di maggiore impatto, inquadrate in quattro ambiti:

  • spostamento del giudizio umano nel processo decisionale
  • condizionamento dall’automazione
  • opacità dei sistemi di ML e imprevedibilità dei sistemi AI
  • distorsione e interruzione dei processi decisionali

Il primo ambito di ricerca riguarda lo spostamento del giudizio umano nel processo decisionale basato sul ricorso alla forza, qualora guidato da sistemi AI e le potenziali implicazioni per concetti complessi quali la teoria della deterrenza e l’escalation dei conflitti. Concettualmente, la programmazione per l’analisi, il calcolo, le implementazioni susseguenti, le risposte o le direttrici da intraprendere, inducono i sistemi citati a comportarsi in maniera del tutto diversa rispetto agli esseri umani, sia in termini di velocità e sia in termini di opportunità.

La volontà di uno stato di usare la forza in risposta a un’aggressione si basa su ipotesi, frutto di un giudizio umano all’interno del quale concorrono elementi diversi (tolleranza, comprensione, consapevolezza di rischi etc), al contrario l’autonomo processo decisionale dei sistemi AI potrebbe non tenere conto di tali elementi, producendo inevitabilmente escalation indesiderate nell’uso della forza, ancor più pericolose se si considera la velocità elevatissima con la quale verrebbero prese. Infine, potrebbero evidenziarsi notevoli criticità nel momento in cui il decisore umano decidesse di optare per intraprendere un’azione di de-escalation finalizzata alla conclusione di singole operazioni o di conflitti, decisioni queste che potrebbe non essere comprese o non rientranti tra le opzioni frutto delle risoluzioni algoritmiche autonome dei sistemi.

Il secondo ambito affronta le possibili implicazioni dei cosìddetti automation bias (ovvero la propensione degli esseri umani a favorire i suggerimenti decisionali frutto dall’intelligenza artificiale). Sono diversi gli studi che dimostrano che singoli individui o team che si affidano costantemente a sistemi basati sull’intelligenza artificiale, sviluppano più facilmente tali tendenze ad accettare (senza riporre alcun dubbio) gli output e le evidenze generati dai sistemi di elaborazione [12]. Questa tendenza a lungo andare potrebbe portare a una dannosa accettazione dell’errore (comunque generato da una macchina), ad una dequalificazione del decisore umano o perfino alla promozione di concetti e teorie fuorvianti, quali quella che una macchina “intelligente” possa assumersi la responsabilità morale di quelle che sono necessariamente decisioni umane e delle inevitabili conseguenze [13].

Il terzo ambito si concentra sulla opacità dei sistemi di machine learning e sull’imprevedibilità dei sistemi AI. Questo è un aspetto particolarmente preoccupante per gli attuali decisori politici perché le conseguenze di un processo decisionale slegato dalle logiche del gruppo di appartenenza, potrebbe portare a scelte e conseguenze diverse da quelle ipotizzate e concordate. Nel caso di un conflitto, ogni governo ha la necessità di una legittimità democratica e internazionale (seppur opportunamente predisposta in modo tale da poter essere facilmente accettata) e questo contrasta con la cosiddetta “opacità logaritmica” in funzione della quale spesso non è facile capire le metodologie per l’ottenimento di previsioni e raccomandazioni e altrettanto difficile risulta comprenderne i limiti. Nel settore dell’analisi di intelligence strategica, ad esempio, è emerso che diversi modelli analitici basati su tali sistemi hanno evidenziato informazioni incomplete e fuorvianti con ripercussioni negative sui processi decisionali conseguenti [14].

In ultimo, il gruppo intende approfondire le difficoltà tipiche dei processi decisionali. Come ampiamente noto anche nel campo delle relazioni internazionali, il consueto processo decisionale organizzativo risulta essere di per sé abbastanza laborioso e contornato da una serie di complicazioni che spesso possono sfociare in “patologie” [15]. Questo momento potrebbe caratterizzarsi ancor più negativamente nel momento in cui i sistemi basati sull’intelligenza artificiale dovessero integrarsi, con il rischio di distorcere e interrompere i processi decisionali strategico-operativi e le stesse catene di comando.

Sviluppo, impiego e uso responsabile: verso un quadro comune di riferimento

In assenza di un quadro globale di riferimento sotto il profilo giuridico, le iniziative più coinvolgenti al momento sono rappresentate dal summit sull’intelligenza artificiale responsabile, nel settore militare (REAIM) [16] e la dichiarazione sull’uso responsabile dell’intelligenza artificiale e dell’autonomia [17]. Si tratta di iniziative che cominciano a riscuotere consensi a dimostrazione del fatto che la tematica oltre ad essere di interesse comune è molto sentita e discussa a vari livelli. La mission di entrambi i framework è quella di strutturarsi quale riferimento anche normativo oltre che di dialogo comune, per lo sviluppo, l’impiego e l’uso sostenibile dell’IA militare, seppure con le caratteristiche differenti che li contraddistinguono.

Il REAIM Summit è stato organizzato per la prima volta nel mese di febbraio 2023 dal governo olandese e dalla Corea del Sud e ha visto la partecipazione di circa duemila partecipanti in rappresentanza di circa cento paesi (inclusi quasi tutti i membri UE ad eccezione di Austria e Irlanda) che hanno sottoscritto una dichiarazione denominata “call to Action” [18], con la quale sottolineano l’impegno e promuovere uno sviluppo per un uso responsabile dell’IA nei domini militari, attraverso nove misure, principalmente incentrate sull’incoraggiamento di attori statali e non, a contribuire con idee e soluzioni idonee ai quadri tematici prospettati dai summit.

La dichiarazione politica promossa dal Dipartimento di Stato USA nel corso del primo summit REAIM, promuove un diverso approccio alle tematiche, rivolgendosi direttamente agli stati sovrani quali interlocutori, che hanno aderito ai principi sottoscrivendo e approvandone il testo nel mese di agosto 2024. La sua struttura prevede dieci misure fondamentali da adottare per lo sviluppo, l’implementazione e l’uso di capacità IA militari, unitamente a sei impegni che gli stati aderenti dovranno sostenere per promuovere l’iniziativa in esame. Nel corso della prima riunione plenaria conseguente all’iniziativa, organizzata nel mese di marzo 2024, sono stati istituiti tre gruppi di lavoro ognuno dedicato all’esplorazione di aspetti specifici relativi alla sicurezza e all’etica dell’IA militare: gruppo Assurance (co-diretto da Stati Uniti e Bahrein), gruppo Accountability (co-diretto da Canada e Portogallo) e gruppo Oversight (guidato dall’Austria).

Gli Stati Uniti sono stati mossi nel loro intento, da varie considerazioni ma le principali sono costituite dalla convinzione diffusa che la loro leadership sia necessaria e indispensabile nella governance globale dell’IA, dalla consapevolezza circa la rivalità strategica con la Cina dove l’IA nel dominio militare è una componente sempre più presente, e infine, dal ritenere che un uso responsabile della stessa possa essere certamente preferibile a un divieto e soprattutto potrebbe rivelarsi positiva per una postura militare del paese già avviata. In realtà, questi stessi convincimenti, si scontrano con le rivalità tra i paesi più potenti, rappresentando dei limiti difficilmente superabili.

Il ruolo dell’Europa in tale contesto appare particolarmente complesso. Le attuali capacità di IA militare europea sono decisamente in ritardo e molto al di sotto rispetto a quelle di Stati Uniti, Cina e Russia, pur essendo potenzialmente in grado di intraprendere progetti di sviluppo di grande rilevanza attraverso istituzioni quali l’Agenzia europea per la difesa. Peraltro, il doversi attenere a un quadro rigido, offerto dalla dichiarazione politica citata, alla stregua di analoghe iniziative europee nate con lo specifico intento di recepire e accettare indicazioni esterne, potrebbe ulteriormente rappresentare un limite a uno sviluppo proprio, difficilmente superabile. In tale contesto sebbene il REAIM non sia un progetto propriamente europeo è verosimile che possa essere ampiamente condiviso stante i valori fondamentali e i vantaggi che potrebbe apportare ai paesi aderenti.

Un passaggio ulteriore potrebbe essere quello (difficile ma non impossibile) di rendere la governance dell’IA militare una priorità depoliticizzata e slegata da singole logiche statuali; per far questo l’Europa deve porsi quale garante di un obiettivo ambizioso nel quale coinvolgere tutti gli appartenenti al summit e lavorare su progettualità anche strategiche. Al contrario, qualora il suo ruolo venga ulteriormente ridotto o reso subordinato a decisioni terze che non tengano conto di opportunità e vantaggi di uno sviluppo programmato o che addirittura rappresentino esse stesse un veicolo di controllo, ne risulterebbe un quadro davvero desolante.

Conclusioni

Il dibattito è più che mai aperto e, nella sua trasversalità, oltrepassa i limiti delle tradizionali relazioni internazionali, interessando anche ambiti quali il diritto internazionale, l’ingegneria, l’informatica, la matematica, la filosofia, la sociologia e la psicologia. E’ importante che lo stesso prosegua, perché potrà rivelarsi utile al superamento di eventuali distorsioni cognitive, nel momento in cui si affrontino in maniera diretta problematiche, evidenziando successi e limiti applicativi, errori e punti di forza costituenti un ausilio ad una maggiore comprensione di una società in evoluzione, all’interno della quale l’incidenza delle nuove tecnologie può certamente rappresentare una interessante prospettiva, senza dimenticare che a fronte di inutili e devastanti derive, possano contrapporsi le leve di una “ragione discorsiva” probabilmente ancora attuale.

Pietro Lucania

Note e bibliografia

  1. Horowitz, M. and Scharre, P. (December, 2019). A Stable Nuclear Future? The Impact of Autonomous Systems and Artificial Intelligence; Dr. James Johnson, on How AI is Transforming Nuclear Deterrence. Nuclear Threat Initiative.
  2. Johnson J.: Is there a human in the machine AI and future warfare, war on the rock, may 2024, Is there a Human in the Machine? AI and Future Warfare – War on the Rocks
  3. Greipl A.R.: Artificial Intelligence Systems and Humans in military decision-making: not better or worse but better togheter, jun 2024, Lieber Institute – West Point, https://lieber.westpoint.edu/artificial-intelligence-systems-humans-military-decision-making-better-worse/
  4. AA.VV.: Autonomous weapons & Human Control, Center for a new American Security, April, 2016.
  5. AA.VV.: Artificial Intelligence and Related Technologies in military decision-making on the use of force in armed conflicts, expert consultation report, Geneva Academy, ICRC, march 2024.
  6. https://bellschool.anu.edu.au/
  7. https://researchportalplus.anu.edu.au/en/projects/ai-automated-systems-and-future-use-of-force-decision-making-anti
  8. Mosier, Kathleen L.; Manzey, Dietrich: Humans and automated decision aids: A match made in heaven ?, september 2019, DOI:10.1201/9780429458330-2
  9. Erskine t.: Before algorithmic Armageddon: anticipating immediate risks to restraint when AI infiltrates decisions to wage war, may 2024.
  10. Vogel, K. M., Reid, G., Kampe, C., & Jones, P. (2021). The impact of ai on intelligence analysis: Tackling issues of collaboration, algorithmic transparency, accountability, and management. Intelligence and National Security, 36(6), 827–848.
  11. Bronner R., Pathologies of Decision-Making: Causes, Forms, and Handling, Management International Review, vol. 43 n.1, 85-101, 2003.
  12. Il 15 e 16 febbraio il governo dei Paesi Bassi ha ospitato il primo vertice globale sull’intelligenza artificiale responsabile in ambito militare, REAIM 2023.  https://www.government.nl/ministries/ministry-of-foreign-affairs/activiteiten/reaim
  13. U.S. Department of State: L’uso militare delle capacità di IA deve essere responsabile, anche attraverso tale uso durante le operazioni militari nell’ambito di una catena di comando e controllo umana responsabile. https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2
  14. https://www.government.nl/latest/news/2023/02/16/reaim-2023-call-to-action
  15. United Nations – Office of Disarmament Affairs, Lethal Autonomous Weapons System, https://disarmament.unoda.org/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/
  16. Chengeta T., Defining: The Emerging Notion Of “Meaningful Human Control” In Weapon Systems, https://nyujilp.org/wp-content/uploads/2010/06/NYI303.pdf
  17. Group of Governmental Experts of the High Contracting Parties to the Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects, Geneva, 9–13 April 2018 and 27-31 August 2018, https://documents.un.org/doc/undoc/gen/g18/323/29/pdf/g1832329.pdf
  18. Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons System, Convention on Prohibitions or Restrictions on the Use of Certain Conventional Weapons Which May Be Deemed to Be Excessively Injurious or to Have Indiscriminate Effects, Geneva 6-10 march and 15-19 may 2023, https://docs-library.unoda.org/Convention_on_Certain_Conventional_Weapons_-Group_of_Governmental_Experts_on_Lethal_Autonomous_Weapons_Systems_(2023)/CCW_GGE1_2023_CRP.1_0.pdf

Image by Gerd Altmann from Pixabay

BFJ BrainFactor Journal Num. 17 Vol. 1

Be the first to comment on "L’interazione dei sistemi di intelligenza artificiale nel processo decisionale militare"

Leave a comment

Your email address will not be published.


*


Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.