Intelligenza artificiale: arrivano i "killer robot" - Confronti
Home Geopolitica Intelligenza artificiale: arrivano i “killer robot”

Intelligenza artificiale: arrivano i “killer robot”

by Maurizio Simoncelli

di Maurizio Simoncelli. Vicepresidente e cofondatore dell’Istituto di ricerche internazionali Archivio disarmo – Iriad

La tecnologia sta facendo passi da gigante in tutti i settori e in particolare le applicazioni dell’intelligenza artificiale aprono nuove prospettive, compreso quello militare. Qui esse stanno portando alla realizzazione di LAWS (Lethal Autonomous Weapons Systems), cioè sistemi d’arma autonomi in grado di individuare, selezionare e attaccare l’obiettivo senza l’azione umana. I mass media li chiamano con un termine ad effetto i killer robot, facendo venire in mente i film hollywoodiani tipo Robocop o Terminator. Non siamo ancora a quel livello, ma almeno sperimentalmente si stanno avviando tantissimi progetti presso diversi stati tra cui USA, Russia, Cina, Francia, Inghilterra ed Israele. In particolare i governi degli Stati Uniti, Russia e Cina continuano ad investire fortemente su sviluppo LAWS coinvolgendo sia i dipartimenti di difesa, sia i produttori di armi, sia le università.

Quali sono i vantaggi di queste armi? Hanno tempi di reazione brevissimi, elevata precisione, non subiscono lo stress emotivo in situazioni di conflitto riducendo al massimo l’eventualità di colpire per errore dei civili (i cosiddetti “danni collaterali”), si possono attivare solo in caso di evidente e certo atto aggressivo. Non da ultimo, evitano la possibilità di perdita di vite umane da parte delle forze armate che le utilizzano: la guerra dei robot killer sarebbe uno scontro tra macchine sofisticate prodotte da industrie (in caso di parità) o tra uomini e macchine.

Scenari da fantascienza? Non tanto, dato che si stima che l’impatto economico dell’IA (civile e militare) si aggirerà sui 13 trilioni (miliardi di miliardi) di dollari entro il 2030. E già si sta lavorando alacremente a sistemi d’arma ravvicinata o a corto raggio, aerei da combattimento senza equipaggio, munizioni guidate di precisione, veicoli terrestri senza equipaggio e veicoli marini senza equipaggio, munizioni loitering (bighellone) che volano autonomamente fino a che non trovano l’obiettivo per poi attaccarlo. Il controllo militare praticamente diviene inesistente e l’arma autonoma fa tutto da sola.

J. C. Rossi già nel novembre 2016, in uno studio intitolato La guerra che verrà: le armi autonome, parlava di «una tecnologia, in sostanza, che allontanando l’uomo dalla programmazione e gestione di una macchina, lo sostituisce con un’intelligenza artificiale (AI) che eviti quei rischi che le pulsazioni umane, invece, non escludono».

Tali armi autonome in realtà possono operare a diversi livelli: con un controllo umano prevalente (human in the loop), con un controllo umano limitato solo alle fasi iniziali (human on the loop), con l’assenza del controllo umano e con una totale “autonomia” (human out the loop).

È qui che numerosi scienziati ed esperti hanno ravvisato enormi pericoli: la perdita del controllo umano sulla macchina può essere estremamente dannosa. Come può una macchina, per quanto sofisticata, comprendere che l’avversario si vuole arrendere o che non è più in grado neppure di manifestare tale volontà in quanto ferito o che l’obiettivo attaccato è invece un civile, erroneamente presente nell’area? L’intelligenza artificiale può sbagliare o essere tratta in inganno dall’avversario, mentre che il processo di autoapprendimento (machine learning) basato sull’azione di diversi algoritmi può portare a risultati finali imprevedibili. Come si comporterà effettivamente in un vero campo di battaglia?

Se l’intelligenza artificiale può essere altamente utile in campo civile, in ambito militare lascia senza risposta molti interrogativi. Se un civile si avvicina per sbaglio o per necessità all’area presidiata dai LAWS, essi saranno in grado di distinguere e di non attaccare? Un aereo costretto ad un atterraggio d’emergenza o una persona in fuga da una minaccia potrà essere compreso nelle sue motivazioni da un LAWS? Il programmatore avrà saputo inserire modalità di riconoscimento? Se il LAWS sbaglia la colpa è del programmatore, del componente difettoso, della squadra di manutenzione, della ditta che lo ha installato, di chi lo ha acquistato selezionandolo senza le dovute cautele, dei politici che lo hanno voluto? La catena delle responsabilità diviene sempre più labile ed opaca. Di fronte ad una manifestazione di protesta con lancio di oggetti, come reagirà il LAWS? Interrogativi senza risposta, finché non sarà testato direttamente in uno di questi casi: l’errore, però, consisterà in vite umane spezzate. Di volta in volta gli ingegneri, i programmatori e i tecnici potranno correggere gli errori e migliorare l’arma autonoma, ma il costo non sarà trascurabile.

Già dal 2012 numerosi ricercatori di robotica sottoscrivono appello per proibizione dei LAWs e nel 2013 viene lanciata la Campagna Stop Killer Robots, che sensibilizza progressivamente governi e opinione pubblica internazionale sulla tematica, tanto che nel 2017 si costituisce un Gruppo di Esperti Governativi, che poi nel 2019 raggiunge un accordo su un rapporto che include 11 principi-guida, condiviso nel novembre 2019 durante Conferenza CCW a Ginevra dagli stati partecipanti.

Ad oggi 30 Paesi hanno chiesto la messa al bando delle LAWS, ma il dibattito è in corso e un eventuale accordo globale appare ancora lontano.

Un recentissimo studio dell’Istituto di Ricerche Internazionali Archivio Disarmo intitolato LAWS Lethal Autonomous Weapons Systems. La questione delle armi letali autonome e le possibili azioni italiane ed europee per un accordo internazionale in materia, mette in evidenza non solo il quadro della R&S del settore e le questioni giuridiche, ma anche l’attuale inaffidabilità di tali tecnologie, rilevando come i sistemi di IA siano vulnerabili a tutti gli attacchi cibernetici che sfruttano vulnerabilità dei normali sistemi informatici. E pertanto appare necessario che, prima di utilizzare operativamente fuori dai laboratori questi sistemi anche nell’ambito militare, si valutino adeguatamente le implicazioni di natura etica, sociale e di diritto internazionale.

Maurizio Simoncelli

Maurizio Simoncelli

Vicepresidente e cofondatore dell’Istituto di ricerche internazionali Archivio disarmo – Iriad

È uscito Confronti di luglio/agosto!

Per acquistare il nuovo numero

Abbonati ora!

Solo 4 € al mese, tutta Confronti
Novità

Seguici sui social

Articoli correlati