Intelligenza artificiale nelle armi Hi-Tech, principi etici e morali
Proseguiamo il percorso intrapreso nei precedenti articoli relativi alla tecnologia e all’etica umana*. Vorrei ripartire dall’opinione dell’ex Ministro per l’Innovazione tecnologica e la digitalizzazione Paola Pisano
“La tecnologia non è neutra: il suo valore dipende da come la si sviluppa, da come la si applica.”
I Paesi che hanno più esperienza in ambito tecnologico, hanno iniziato da tempo a discutere sui criteri da adottare nello sviluppo di un settore estremamente delicato, ossia quello dell’utilizzo dell’Intelligenza Artificiale in ambito bellico che molti definiscono “settore post-nucleare” (nel settembre 2020, 13 paesi hanno dato vita al AI Partnership for Defense che si occupa delle applicazioni militari dell’intelligenza artificiale). Anche la Nato ha avviato una profonda discussione sull’uso delle armi guidate dall’Intelligenza Artificiale; alcuni Paesi vogliono fortemente proseguire sullo sviluppo di queste armi mentre altri sono contrari.
Se da una parte le democrazie occidentali discutono di “etica” sulle armi di nuova generazione, dall’altra governi più autoritari non si fanno condizionare da preoccupazioni etiche. Tutto questo porta ad una corsa spasmodica verso la superiorità tecnico-militare degli uni verso gli altri. L’intelligenza artificiale sta progressivamente diventando il “mezzo” della competizione internazionale per la leadership tecnologica.
Armi autonome
All’evoluzione dell’uomo si è sempre affiancata quella delle armi; dai bastoni e accette alle frecce e polvere da sparo, dai cannoni ai missili per arrivare al nucleare. Oggi siamo alle “armi autonome” che, grazie all’IA, sono in grado di dare la caccia a qualsiasi tipo di obiettivo e decidere quale attaccare e quando farlo.
Quello che realmente mi spaventa della corsa agli “armamenti autonomi” è che stiamo per superare una linea molto pericolosa; se oggi i “droni e robot killer” sono governati da un pilota da remoto mantenendo quindi il controllo umano dell’operazione, il prossimo passo saranno armi che possono “pensare per conto loro” (e chissà, in un futuro distopico, anche di ribellarsi… forse non siamo molto distanti dal film “Terminator” in cui si ipotizzava tutto questo).
Gli elementi etici critici legati all’applicazione dell’IA negli armamenti sono fondamentalmente:
1. Vulnerabilità nel processo decisionale. Se si inseriscono manipolazioni sui dati o sugli algoritmi utilizzati, possono produrre effetti sproporzionati nei confronti di chi è oggetto del pregiudizio (un popolo, una religione, una cultura, un territorio, etc.). Cosa succede se queste armi vengono manipolate da hacker informatici? O messe a disposizione di organizzazioni terroristiche e opportunamente modificate a loro vantaggio?
2. Scelta arbitraria. Lasciare ad un’arma autonoma la decisione di lasciar vivere o morire, porterebbe ad una deresponsabilizzazione dell’essere umano. In una puntata “Intelligenza artificiale e dilemmi morali” della rubrica “Tempi Digitali”, parlando di “moral machine” avevo chiuso il mio intervento con una domanda: “Forse gli uomini useranno le macchine per scaricargli i temi più scottanti e impegnativi evitando così la responsabilità delle scelte?”
La vera domanda da porsi è: l’Intelligenza artificiale per quanto istruita e addestrata potrà mai comprendere pienamente le conseguenze delle sue azioni?
*”Entropia, empatia, etica nella morale applicata all’AI… facciamo un po’ d’ordine” e “Self driving – AI al servizio dell’evoluzione o dilemma morale”