le notizie che fanno testo, dal 2010

Davos: fermare robot killer. Nessuna fiducia nell'intelligenza artificiale

La corsa agli armamenti ad intelligenza artificiale sta per iniziare. Al World Economic Forum di Davos si parla anche di robot killer, cioè quei sistemi di armi autonome che nel giro di pochi anni potrebbero sostituire i militari nei teatri di guerra. Il problema però non è solo etico, ma anche caotico. I relatori spiegano infatti: "Questa straordinaria fiducia nell'intelligenza artificiale è mal riposta e sbagliata" perché "anche un robot ben progettato si comporterà in maniera caotica e commetterà errori in un ambiente caotico".

La corsa agli armamenti ad intelligenza artificiale sta per iniziare. Al World Economic Forum di Davos non si parla solo di economia ma anche di fantascienza, che potrebbe nel giro di pochi anni divenire solamente scienza. E' quanto auspicano alcuni e temono altri, come è emerso durante la discussione sui problemi che potrebbe provocare l'intelligenza artificiale, quella soprattutto applicata in campo militare. Una intera sessione a Davos è stata infatti organizzata per cercare di rispondere al quesito: "Che cosa succede se i robot vanno in guerra?". La tavola rotonda era infatti dedicata ai pericoli delle armi autonome. "Non stiamo parlando di droni, pilotati seppur da remoto da un pilota umano. Stiamo parlando di armi autonome, il che significa che non c'è nessuno dietro di queste. Sono armi ad intelligenza artificiale" precisa Stuart Russell, professore di informatica presso l'Università della California (Berkeley) ed esperto in intelligenza artificiale.
Al gruppo di discussione hanno partecipato anche Angela Kane, ex Alto Rappresentante delle Nazioni Unite per il disarmo, Alan Winfield, professore di ingegneria elettronica presso l'Università del West of England ed esperto in "robot etica" e Sir Roger Carr, a capo della BAE Systems, la seconda più grande impresa di difesa del mondo e la più grande in Europa.

Paesi come gli Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito stanno già lavorando alla costruzione di armi autonome, ma tutti i relatori hanno convenuto che il mantenimento di robot killer nelle mani di governi responsabili e fuori dalle mani di gruppi armati non statali sarà difficile se non impossibile. In sostanza, il timore è che i robot killer verranno usati in maniera totalmente irresponsabile. A questo bisogna aggiungere inoltre che tutti i sistemi d'arma autonomi rappresentano un pericolo e per questo anche a Davos è stata chiesta un'azione diplomatica rapida per negoziare uno strumento giuridicamente vincolante che tracci la linea d'azione di questi robot non controllati da esseri umani.

Un'arma completamente autonoma individua e seleziona l'obiettivo senza intervento umano, e da solo decide se fare fuoco. Proprio per questo motivo, Russell e Carr hanno osservato che le armi completamente autonome non saranno mai in grado di rispettare le leggi di guerra e di soddisfare i requisiti del Diritto internazionale umanitario (DIU), cioè quell'insieme di norme che riguarda la protezione delle cosiddette vittime di guerra o vittime dei conflitti armati. Nonostante il giro d'affari da 20 miliardi di dollari, il capo della BAE Systems ha dovuto ammettere che sui robot killer non potranno mai ricadere "le responsabilità" delle loro azioni, anche perché non avranno "nessuna emozione o senso di pietà". Un'arma autonoma difficilmente infatti saprà distinguere tra civili, soldati, combattenti della resistenza e ribelli. Al contempo, anche gli esseri umani saranno "privati della loro responsabilità morale" mettendo in campo le armi automatiche.

Ecco perché Carr ha evidenziato: "Se si rimuove l'etica, il giudizio e la moralità come sforzo umano sia in pace che in guerra, si avrà una umanità ad un altro livello e al di là della nostra comprensione. - precisando inoltre - Non si può mettere qualcosa in campo che, in caso di guasto, può diventare molto distruttivo senza che esista un meccanismo controllato da un essere umano. Non è essenziale solo decidere come utilizzare l'arma e contro di chi ma anche come interrompere il processo. Questo è il motivo per cui il legame ombelicale tra uomo a macchina non può essere reciso".

"Sono contro i robot per motivi etici, ma non credo che gli argomenti etici prevarranno al giorno d'oggi. Credo che a prevalere saranno gli argomenti strategici" ammette però sconsolato Russell. Anche per questo motivo Angela Kane esorta gli Stati a negoziare un protocollo sulle armi autonome da aggiungere alla Convenzione sulle armi non convenzionali, incoraggiando al contempo gli Stati Uniti a "prendere l'iniziativa" e a sollevare diplomaticamente il dibattito.

Winfield ha invitato invece tutti a contattare i loro rappresentanti eletti o i membri del Parlamento per comunicare loro che per "noi come popolo" i robot killer non sono accettabili. L'iniziativa è ancora più essenziale se si pensa che l'88% delle persone intervistate all'interno del forum e il 55% di quelle ascoltate fuori pensa che in caso di attacco la difesa dovrebbe essere affidata ai robot killer anziché ai loro umani "figli e figlie". I relatori hanno evidenziato l'ingenuità di queste risposte, con Winfield che ha precisato come questa "straordinaria fiducia nell'intelligenza artificiale è mal riposta e sbagliata" perché "anche un robot ben progettato si comporterà in maniera caotica e commetterà errori in un ambiente caotico". Per tutti questi motivi nel 2015 circa 3mila esperti di intelligenza artificiale hanno sottoscritto una lettera aperta per chiedere un divieto sulle armi autonome. Nonostante questo l'ONU continua a ritardare la messa al bando preventiva delle armi autonome, il che "potrebbe aprire le porte alle guerre robotiche" non tra qualche decennio ma tra pochi anni.

• DALLA PRIMAPAGINA:

• POTREBBE INTERESSARTI:

• LE ALTRE NOTIZIE: