L’INTELLIGENZA ARTIFICIALE IN CAMPO MILITARE: UNA SFIDA IL DIRITTO UMANITARIO. L’APPROCCIO REGOLATORE COME CHIAVE DI VOLTA

Di Anna Calabrese

ROMA (nostro servizio particolare). Il conflitto in Nagorno Karabakh e le sue recenti evoluzioni evocano non solo una riflessione sul ruolo e il rapporto delle potenze occidentali e medio-orientali nella regione, ma anche e soprattutto un’analisi critica della portata dell’intelligenza artificiale in campo militare.

Si è infatti dimostrato che le Forze azere hanno potuto garantirsi un netto vantaggio sul campo grazie all’utilizzo di droni a scopo identificativo e distruttivo, di fatto sopperendo ai limiti costituiti dal possesso di una forza aerea tradizionale con equipaggiamenti AI (artificial intelligence) a basso costo forniti dagli alleati israeliani e turchi.

Un velivolo “Heron-TP” prodotto dalla Israel Aerospace Industries

Nel novembre 2021, il Consiglio d’Europa pubblicò un memorandum circa le conseguenze umanitarie della Seconda guerra del Nagorno Karabakh, sottolineando che nessuno dei belligeranti ha ratificato strumenti convenzionali chiave circa la restrizione di armi convenzionali, senza tuttavia avanzare un’analisi profonda sulle armi di nuova generazione e sull’uso dell’AI.

In particolare, la questione delle armi autonome si inserisce in modo sempre più dirompente in un ampio dibattito che valica ogni tecnicismo per coinvolgere la sfera dei diritti umani, specialmente per quello che concerne i principi riconosciuti dal diritto internazionale umanitario o dei conflitti armati.

Il Comitato internazionale della Croce Rossa, soggetto di diritto internazionale con un ruolo fondamentale nel campo umanitario, sottolinea l’elemento di mancanza del giudizio ed intervento umano nell’impiego di armi autonome, il cui funzionamento riposa su sensori e software che una volta programmati ed attivati, non richiedono il controllo né l’intervento dell’uomo.

I rischi maggiori sarebbero dunque l’incapacità di distinguere target civili da quelli militari, l’impossibilità di coinvolgere qualsiasi tipo di principio etico altrimenti rilevante in caso di decisione umana, oltre che le implicazioni legali e la presunta violazione del diritto umanitario, in particolar modo dei principi di proporzionalità e necessità secondo lo ius in bello.

“Wild Goose”, il nuovo veicolo autonomo terrestre progettato in Israele

La criticità principale a livello legale è che non esiste alcuno strumento specificamente diretto a questo tipo di equipaggiamenti, lasciando di fatto un vuoto legislativo da colmare tramite l’interpretazione degli attuali principi di IHL (international humanitarian law).

La dottrina attuale si divide allora in due filoni: coloro i quali denunciano l’utilizzo di armi autonome come illegale secondo i principi di IHL, e coloro i quali, al contrario, sostengono che esse possano inserirsi nel more Technology, more regulation anzi ottemperare ai vincoli in modo più efficace dell’uomo.

Il primo filone fonda la propria analisi critica sul fatto che sistemi d’arma AI non garantiscano una comprensione e lettura di contesto necessaria al rispetto di elementi cardine del diritto umanitario quali proporzionalità e distinzione.

Quanto al primo principio, l’identificazione del suo rispetto nelle manovre militari richiede ben più di meri dati numerici immagazzinati nei sistemi, bensì di un’analisi qualitativa dei processi psicologici che guidano il giudizio e l’azione umana, essenziali laddove si debba ricostruire la logica che soggiace a presunte violazioni umanitarie e determinare la responsabilità.

Il problema dell’identificazione della responsabilità è certamente allarmante, in quanto i meccanismi di deterrenza e di prevenzione perdono di valore; tuttavia, esso apre ad una riflessione circa una possibile lettura alternativa al rapporto tra armi autonome e diritto umanitario.

Basti pensare che soluzioni tecnologiche potrebbero permettere, se armonizzate e normate, pratiche di ricostruzione delle dinamiche e tracciamento più solide e fruibili grazie allo stoccaggio di dati che possono facilmente ricondurre agli operatori responsabili, siano essi programmatori, comandanti o semplici contributori.

Il secondo filone sostiene fermamente questa tesi, con la convinzione che un’evoluzione dell’intelligenza artificiale che sia accompagnata e tenga conto del quadro legale di riferimento possa garantire un uso dei sistemi autonomi appropriato e scevro di caratteri umani quali imprecisione, usura e altri elementi emotivi che spesso ribaltano le sorti sui campi di battaglia e rendono l’applicazione delle norme più precaria e caliginosa.

Anche l’Italia è annoverata tra i Paesi che investono in ricerca AI applicata al settore militare con l’implementazione del recente progetto Prometeo, improntato però alla ricerca e sperimentazione di sistemi anti-drone e soluzioni counter mini/micro APR i cui risvolti illeciti allarmano la comunità internazionale dato il loro vasto impiego nel conflitto russo-ucraino.

Droni FPV sul fronte meridionale del conflitto ucraino, a Robotyne

Proprio la specificità del progetto italiano fa riflettere sulla necessità di diffidare di analisi radicali e perciò limitanti che escludono ogni riflessione circa la portata evolutiva delle armi autonome: sviluppo e ricerca in questo campo risultano cruciali soprattutto a scopo difensivo, preventivo e di sorveglianza, elementi che, a livello tecnico, operano ad un piano simile a quello legale nel tentativo di condurre ad un’evoluzione (necessaria) dei sistemi e implementazioni d’arma che sia il più possibile controllata, normata e coerente con gli attuali principi di proporzionalità e necessità tuttavia non contemplati in numerosi conflitti, come osservato.

A livello multilaterale l’approccio dell’ONU e del Group of Governamental Experts rimane però ancora di tipo “permissivo” fondato sul diritto umanitario esistente rispetto ad una riflessione su un possibile allargamento del quadro normativo a queste fattispecie, il che limita fortemente la portata di pannelli globali pur dimostrando, però, che il dibattito nelle organizzazioni internazionali governative è pragmatico ed improntato al “more Technology, more regulation”, lasciando auspicare ad un futuro quadro legale, di formazione e di addestramento di accompagnamento alla high level intelligence che permetta e non limiti anzi elevi la ricerca nelll’AI per soluzioni sempre più sofisticate e dunque capaci di rispondere alle sfide umanitaire.

© RIPRODUZIONE RISERVATA

Autore