home Parole e notizie Intelligenza artificiale e armamenti: «Diciamo stop»

Intelligenza artificiale e armamenti: «Diciamo stop»

Dal 2013 una rete di organizzazioni internazionali chiede la messa al bando delle armi autonome. Ne abbiamo parlato con uno dei promotori: Francesco Vignarca della Rete Italiana Pace e Disarmo – mia intervista per il Settimanale della Diocesi di Como, a cura di Michele Luppi, in un numero dedicato alle sfide problematiche dell’Intelligenza artificiale (a seguito del messaggio di Papa Francesco per la Giornata Internazionale della Pace).

L’ intelligenza artificiale è una tecnologia così pervasiva che penetra tutti i comparti compreso quello militare. Come suggerisce il premio Nobel Giorgio Parisi può essere paragonata all’elettricità, è qualcosa di trasversale che tiene dentro tutto. E certamente può cambiare profondamente anche il modo di fare la guerra e la pericolosità di un’arma. In questo campo il cambiamento non è e non sarà solo quantitativo, ma qualitativo: non stiamo parlando di un aereo più veloce o di una bomba più potente, ma di un cambio totale di paradigma. Per questo non da oggi, ma dal 2013 con il lancio della campagna “Stop killer robot” alcune organizzazioni, tra cui la Rete Italiana per il Disarmo, chiedono alle Nazioni Unite un’azione forte per la messa al bando di questo tipo di tecnologia in campo militare.
Un grido raccolto dal Segretario generale delle Nazioni Unite, Antonio Guterres, che, nei mesi scorsi, ha lanciato un appello urgente agli Stati affinché adottino un Trattato per vietare le armi letali autonome (LAWS, i cosiddetti “killer robots”) entro il 2026. Ne abbiamo parlato con Francesco Vignarca Coordinatore delle Campagne nella nuova Rete Italiana Pace e Disarmo.

Prima di tutto ci aiuti a capire cosa sono i “killer robot” e soprattutto perché l’intelligenza artificiale in campo militare vi spaventa così tanto?

«Partiamo da una premessa: quando dieci anni fa abbiamo lanciato questa campagna eravamo proprio agli albori di questo tipo di ricerca e avevamo bisogno di un nome evocativo. Da qui la scelta di parlare di “killer robot” rimandando ad un immaginario legato al mondo della fantascienza. In realtà l’applicazione dell’intelligenza artificiale al comparto militare significa molto altro e a differenza di altre armi non c’è nemmeno una definizione chiara. Diciamo che parliamo di armi autonome in cui le tre fasi – attivazione, selezione dell’obiettivo da colpire e intervento – sono completamente automatizzate ovvero indipendenti dalla volontà e dal giudizio dell’uomo. Noi crediamo, invece, che il controllo umano sull’utilizzo di un’ arma debba sempre essere significativo. Il rischio è, invece, quello di lasciar decidere un algoritmo che opera ad una velocità tale da rendere impossibile il controllo e la verifica da parte dell’uomo».

Sta dicendo che potremmo arrivare ad avere delle macchine che identificano e colpiscono un obiettivo (magari addirittura uccidendo una o più persone) in completa autonomia?

«Non solo. L’Intelligenza Artificiale ha la specificità di apprendere e di estendere le sue capacità indipendentemente dal controllo umano. Questo rende tutto più preoccupante».

A comandare è l’algoritmo?

«Certo, ma l’algoritmo non è la “verità” assoluta e può contenere degli errori o essere influenzato dai bias cognitivi di chi l’ha progettato. Questo tipo di macchine ha bisogno di essere istruita attraverso informazioni che dobbiamo fornire loro. Dal tipo di informazioni che diamo loro influenziamo il modo in cui “penserà” e di conseguenza le sue azioni. Per questo crediamo fortemente che il controllo ultimo debba sempre restare nelle mani dell’uomo».

Come?

«Ponendo dei limiti. Nessuno di noi pensa o vuole fermare questo tipo di sviluppo tecnologico, anche perché le sue ripercussioni in molti ambiti, pensiamo solo alla sanità, sono potenzialmente molto importanti. Ma crediamo vadano posti dei limiti all’applicazione in campo militare. Questo può avvenire solo con una decisione politica da parte dei governi».

Non è già troppo tardi? Guardando alla guerra in Ucraina o agli attacchi israeliani su Gaza si sente spesso parlare proprio dell’utilizzo dell’Intelligenza Artificiale.

«Sicuramente esistono già armamenti o sistemi di monitoraggio e controllo a programmazione autonoma. Si è molto parlato in questi giorni di un sistema utilizzato dall’esercito israeliano e chiamato “Gospel” (Vangelo) che permetterebbe di identificare attraverso l’intelligenza artificiale gli obiettivi sensibili da colpire a Gaza. Ma poi è comunque un soldato a premere il bottone per far partire i colpi. Diciamo che la linea rossa non è ancora stata superata perché non ha le caratteristiche dell’arma autonoma».

Sembra però solo questione di tempo…

«Per questo dobbiamo agire subito. Abbiamo l’occasione unica nella storia di non aprire il vaso di Pandora e dobbiamo avere la possibilità di farlo, ma ci vuole la volontà politica. Il 1° novembre 2023 la Prima Commissione (quella dedicata al Disarmo) dell’Assemblea Generale delle Nazioni Unite ha adottato la prima Risoluzione in assoluto mai discussa sulle armi autonome sottolineando la “necessità urgente per la comunità internazionale di affrontare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome”. È un passo storico anche se ci sono voluti dieci anni».

Il 1° novembre 2023 la Prima Commissione (quella dedicata al Disarmo) dell’Assemblea Generale delle Nazioni Unite ha adottato la prima Risoluzione in assoluto mai discussa sulle armi autonome (i cosiddetti “killer robots” o LAWS) sottolineando la “necessità urgente per la comunità internazionale di affrontare le sfide e le preoccupazioni sollevate dai sistemi di armi autonome”

È già troppo tardi?

«Non penso, ma vista la velocità con cui si sviluppano queste tecnologie non c’è tempo da perdere. Il voto dell’Assemblea ha messo in moto un meccanismo che ha portato alla costituzione di una commissione di esperti che, per un anno, approfondiranno il tema arrivando a presentare un report alla stessa Assemblea che sarà poi chiamata ad esprimersi. Purtroppo è innegabile che i tempi legislativi e politici siano di gran lunga più lenti rispetto allo sviluppo tecnologico».

Ma anche se dovesse esserci una risoluzione in questo senso nessuno potrà impedire ad uno stato o ad un gruppo di sviluppare segretamente questi strumenti e di utilizzarli?

«Resterebbe comunque la differenza tra lecito e illecito e si potrebbero mettere in atto sanzioni nei confronti di chi dovesse violare le norme. Il caso della messa al bando delle mine antiuomo dimostra come ci siano margini per agire».

Guardando al voto in Assemblea – 164 favorevoli, 5 contrari (Russia, India, Mali, Niger e Bielorussia), 8 astenuti (Cina, Arabia Saudita, Turchia, Siria, Corea del Nord, Iran, Israele, Emirati Arabi Uniti) colpisce il via libera alla risoluzione degli Stati Uniti, che normalmente sono restii ad ogni forma di controllo esterna su decisioni che riguardano il comporto militare. Come giudica questa decisione?

«Personalmente non penso ci sia alla base di questo voto da parte americana una decisione di natura etica. Gli Usa sono indubbiamente il Paese più sviluppato militarmente e non hanno rivali in fatto di armamenti. Questo almeno stando ai sistemi d’arma che potremmo definire tradizionali (aerei, navi, missili ecc.). Il discorso potrebbe cambiare con le nuove tecnologie: la guerra in Ucraina ha dimostrato, infatti, come il massiccio utilizzo di droni, possa rimescolare le carte. Personalmente penso che la decisione Usa vada nella direzione di evitare il proliferare di settori e armamenti in cui potrebbero non avere il vantaggio competitivo che hanno oggi».