https://frosthead.com

I robot killer possono imparare a seguire le regole della guerra?

Come ricorda il Memorial Day ogni anno, la guerra non scompare.

Ma cambia. E uno dei cambiamenti più profondi che vedremo nei prossimi anni è quello di un militare sempre più dipendente dai robot. I droni ora attirano la maggior parte dell'attenzione, ma sempre più innovazioni del Dipartimento della Difesa sono altri tipi di macchine senza pilota, dagli aerei sperimentali ai soldati a terra.

È facile capire l'attrazione. L'uso dei robot è potenzialmente più efficiente, più preciso e meno costoso che affidarsi esclusivamente agli umani in guerra. E ovviamente significherebbe anche un minor numero di vittime umane.

Ma questa trasformazione comporta una sfida complessa: le macchine militari possono essere programmate per prendere decisioni? Il che porta a una domanda più chiara: i robot possono imparare la moralità?

L'Ufficio di ricerca navale degli Stati Uniti pensa che ora sia il momento di scoprirlo. All'inizio di questo mese, ha annunciato una sovvenzione quinquennale da $ 7, 5 milioni per finanziare la ricerca presso le università Tufts, Brown, Yale e Georgetown e il Rensselaer Polytechnic Institute (RPI) sul fatto che un giorno le macchine possano scegliere tra giusto o sbagliato.

La Marina vuole evitare la situazione che l'auto senza conducente di Google deve ora affrontare: avere una tecnologia che viene rilasciata molto prima di ogni chiarezza sulle questioni legali ed etiche che solleva. Prima che i robot autonomi escano sul campo, i militari vogliono sapere se possono effettivamente imparare a fare la cosa giusta.

Come vede Selmer Bringsjord, capo del dipartimento di Scienze cognitive di RPI, l'intelligenza artificiale di un robot potrebbe essere progettata per funzionare a due livelli morali. Il primo sarebbe basato su una lista di chiare scelte etiche, come "se incontri un soldato ferito, dovresti aiutarlo". Ma cosa succede se questa azione è in conflitto con la sua missione primaria, come fornire munizioni criticamente necessarie per altri soldati? A quel punto, afferma Bringsjord, il robot dovrebbe avere la capacità di impegnarsi in un "ragionamento morale più profondo" per prendere decisioni in situazioni che i suoi programmatori potrebbero non essere in grado di anticipare.

I ricercatori dovrebbero sviluppare algoritmi e meccanismi computazionali unici che potrebbero essere integrati nell'architettura esistente di robot autonomi, un "processo di pensiero" che consentirebbe a una macchina di ignorare il comportamento pianificato basato sulla sua capacità di applicare il ragionamento morale.

Se questo sembra straordinariamente ambizioso, beh, lo è. Per cominciare, i ricercatori dovranno isolare gli elementi di base della moralità umana - su quali principi siamo tutti d'accordo? - e quindi capire come incorporarli in algoritmi che darebbero ai robot un livello di competenza morale.

Non è una piccola impresa. Per questo motivo, è probabile che le macchine non controllate dall'uomo, per il prossimo futuro, saranno limitate a ruoli non di combattimento, come sorveglianza, sicurezza, ricerca e salvataggio o cure mediche. Ma inevitabilmente, i pianificatori militari vorranno una risposta alla domanda che incombe su tutto questo: ai robot, che agiscono da soli, dovrebbe mai essere permesso di uccidere un essere umano?

Se una macchina è sicura al 90 percento che chiunque in un veicolo che intende sparare è un terrorista, è abbastanza sicuro? Un robot sarebbe in grado di sparare con un'arma a un bambino se determina che è il nemico? Se qualcosa va storto e un robot autonomo fa esplodere per errore un villaggio, chi è il responsabile? Il comandante che ha ordinato l'operazione? La persona che ha programmato il robot? O nessuno?

Se pensi che questa sia ancora roba da fantascienza, considera che all'inizio di questo mese, esperti su argomenti che vanno dall'intelligenza artificiale ai diritti umani al diritto internazionale hanno pesato sui "robot killer" durante una conferenza delle Nazioni Unite a Ginevra. Gruppi come Human Rights Watch e funzionari di una manciata di paesi, tra cui Pakistan, Egitto, Cuba e Vaticano, hanno chiesto il divieto assoluto dei robot con l'autorità di uccidere. Ma la maggior parte dei paesi, in particolare quelli con i robot più avanzati, non sono pronti ad andare così lontano.

Dai un'occhiata, ad esempio, al WildCat, un robot a quattro zampe sviluppato per correre ad alta velocità su tutti i tipi di terreno.

Per ora, l'esercito americano segue una direttiva del Dipartimento della Difesa del 2012 secondo cui nessuna macchina con il potere di uccidere può essere completamente autonoma. Un essere umano deve letteralmente chiamare i colpi. Ma questo potrebbe non essere vero in tutti i luoghi: a marzo, New Scientist ha citato un funzionario russo affermando che le sentinelle dei robot in cinque installazioni di missili balistici saranno in grado di rilevare e distruggere obiettivi senza che un umano dia il via libera.

Il Foster-Miller Talon, visto di seguito, è una delle tante macchine in tutto il mondo sviluppate per il combattimento.

Regole della guerra

Un rapporto sulla conferenza sui robot killer sarà presentato al comitato Certain Coventional Weapons delle Nazioni Unite a novembre. Ma non sembra che un divieto arriverà presto.

Tra quelli che si sono uniti alla discussione a Ginevra c'era Ronald Arkin, un esperto di intelligenza artificiale della Georgia Tech, che è stato a lungo un sostenitore del dare alle macchine la capacità di prendere decisioni morali. Crede che se i robot potessero imparare a seguire il diritto internazionale, potrebbero effettivamente comportarsi in modo più etico rispetto agli umani in guerra perché sarebbero immancabilmente coerenti. Non sarebbero in grado di rispondere con rabbia o con panico o pregiudizio. Quindi Arkin si oppone a un divieto, sebbene sia aperto a una moratoria sulle armi autonome fino a quando alle macchine non viene data la possibilità di vedere se sono in grado di padroneggiare le regole della guerra.

Un altro scienziato dell'IA, Noel Sharkey, che ha discusso di Arkin a Ginevra, ha una mentalità molto diversa. Non pensa che ai robot dovrebbe mai essere data l'autorità di prendere decisioni sulla vita o sulla morte.

Recentemente ha detto a Defense One : “Non credo che finiranno mai con un robot morale o etico. Per questo dobbiamo avere un'agenzia morale. Per questo dobbiamo capire gli altri e sapere cosa significa soffrire ".

"Un robot può essere installato con alcune regole etiche, ma non gliene importerà", afferma.

I robot killer possono imparare a seguire le regole della guerra?