le notizie che fanno testo, dal 2010

ONU: terza riunione sui robot killer. Senza divieto armi autonome rischio prima "guerra robotica"

A Ginevra è in corso per la terza volta una riunione internazionale sui sistemi d'arma autonomi letali (Lethal Weapons Autonomous Systems). Human Rights Watch presenta un rapporto dove si affronta nuovamente l'importanza morale e giuridica di mantenere il controllo umano su ogni tipo di arma e chiede nuovamente all'ONU di vietare, attraverso nuove norme di diritto internazionale, i robot killer.

A Ginevra è in corso per la terza volta una riunione internazionale sui sistemi d'arma autonomi letali, la cui discussione è iniziata l'11 aprile e terminerà venerdì 15 aprile. La riunione è presieduta dalla Germania e vi potranno partecipare gli esperti del Lethal Weapons Autonomous Systems (LAWS) dei 122 Paesi che hanno aderito alla Convenzione sulle armi non convenzionali. Non è chiaro se l'Italia è presente al tavolo. I precedenti due incontri si sono svolti nell'aprile 2015 e nel maggio 2014.

Come sempre a coordinare la campagna per fermare robot killer è Human Rights Watch, la quale ritiene che l'ONU debba vietare, attraverso nuove norme di diritto internazionale, le armi completamente autonome. Anche se la riunione in corso a Ginevra non terminerà con alcuna decisione formale in merito alle armi autonome "i Paesi non devono solo dedicare più tempo a prendere in considerazione le preoccupazioni che ruotano attorno ai robot killer, ma anche impegnarsi a perseguire un risultato tempestivo e tangibile. Un lavoro che sarà possibile solo se i Paesi adotteranno misure politiche e legislative atte a mantenere il controllo umano delle armi prima che la tecnologia avanzerà troppo" spiega infatti Bonnie Docherty, ricercatore senior della divisione armi di HRW e principale autore del rapporto presentato all'ONU "Killer Robots and the Concept of Meaningful Human Control".

Nel documento si affronta nuovamente l'importanza morale e giuridica di mantenere il controllo umano su ogni tipo di arma. "Le macchine sono servite a lungo come strumenti di guerra, ma storicamente sono sempre stati gli esseri umani a decidere sul loro utilizzo" sottolinea Docherty, avvertendo che oggi invece "vi è la minaccia reale che gli esseri umani rinuncino a questo controllo delegando le decisioni di vita o di morte a delle macchine".

Ad aprile 2014 fu la Croce Rossa a ricordare che la Convenzione sulle armi non convenzionali si fonda in primis sul Diritto internazionale umanitario, cioè un insieme di norme che riguarda la protezione delle cosiddette vittime di guerra o vittime dei conflitti armati. Ma se i robot killer potranno selezionare un obiettivo senza l'intervento umano, decidendo autonomamente in base a qualche algoritmo chi ha il diritto di vivere e chi di morire, decadrebbe il concetto di dignità delle persone. Dei robot, per quanto artificialmente intelligenti, non potranno mai infatti provare per esempio empatia né comprendere il valore della vita umana o il significato della sua perdita, come osserva Human Rights Watch.

Nonostante il "profondo disagio all'idea che possa esistere un sistema di armi che pone l'uso della forza fuori dal controllo umano" espresso da diverse organizzazioni internazionali le Nazioni Unite continuano a temporeggiare, forse per non deludere quelle multinazionali che stanno investendo miliardi di eurodollari nel settore delle armi robotiche "senzienti". Ma mentre si pensa se sia il caso o meno di apporre un divieto preventivo all'utilizzo della armi autonome da un momento all'altro potrebbe scoppiare la prima "guerra robotica" della storia dell'umanità, anche perché i robot killer sono già in mezzo a noi nonostante finora siano classificati solo come sistemi di difesa (vedi Iron Dome di Israele).
Ecco perché anche al World Economic Forum di Davos è stata chiesta un'azione diplomatica rapida per negoziare uno strumento giuridicamente vincolante che tracci la linea d'azione di questi robot non controllati da esseri umani.

• DALLA PRIMAPAGINA:

• POTREBBE INTERESSARTI:

• LE ALTRE NOTIZIE: