In un futuro non troppo lontano, Johannesburg, marcia per la criminalità, diventa la prima città in assoluto a schierare una flotta di droidi di polizia robotici autonomi. Inizialmente, le macchine sembrano una soluzione efficace. Il crimine si riduce drasticamente e il progetto viene salutato come un successo, fino a quando qualcosa non va storto. Gangster rap-rave in cerca di un giorno di paga veloce dirottano un droide danneggiato in programma per la demolizione. Con l'aiuto di un ingegnere costretto a sparare, riprogrammare il droide, chiamato Chappie, come agente autonomo, creando effettivamente la singolarità, il punto in cui l'intelligenza artificiale diventa più intelligente dell'intelligenza umana.
Come la maggior parte della fantascienza, il nuovo film del regista Neill Blomkamp, Chappie , funge da commento sulla natura umana e sui problemi attuali, tra cui povertà, criminalità, discriminazione, bullismo e brutalità della polizia. Ma solleva anche domande più profonde su ciò che molti pensano - nel bene e nel male - sarà un'inevitabile emergenza dell'intelligenza artificiale senziente.
"In passato, su tutta la linea, tutto ciò che gli umani hanno concepito, indipendentemente da etica e morale, è stato provato e, se possibile, fatto", afferma Wolfgang Fink, un fisico dell'Università dell'Arizona e del California Institute of Technology . "I sistemi autonomi emergeranno se qualcuno capirà come crearli: questo è un dato di fatto."
In effetti, numerosi scienziati, tra cui Fink, stanno ora perseguendo febbrilmente questa linea di ricerca e sono già stati compiuti progressi. A parte Chappie stesso, gran parte della robotica rappresentata nel film è in realtà già disponibile o molto vicina alla sua disponibilità. Esistono robot a distanza simili al Moose del film — l'enorme macchina della morte che ricorda l' ED-209 di Robocop che è gestito dal poliziotto squilibrato di Hugh Jackman — esiste oggi.
Allo stesso modo, robot come i droidi della polizia Chappie - quelli programmati come sistemi basati su regole e artificialmente intelligenti, ma privi di autocoscienza o autonomia - sono quasi pronti, sebbene la loro durata della batteria e l'agilità non corrispondano ancora ai modelli mostrati che pattugliano il strade di Johannesburg. Se e quando verranno implementate tali macchine, tuttavia, potrebbe non essere una cosa così radicale da accettare. "Siamo molto bravi a abituarci e abituarci ai cambiamenti nell'ambiente, compresi quelli tecnologici", afferma Ali Mattu, psicologo clinico presso il Columbia University Medical Center e creatore del Brain Knows Better, un blog di psicologia della fantascienza. "Man mano che i robot entrano a far parte della nostra vita quotidiana, penso che in qualche modo potrebbe sembrare senza soluzione di continuità."
Un droide della polizia, tuttavia, non crea un essere senziente autonomo. Un essere veramente autonomo e autocosciente come Chappie sarebbe una partenza da qualsiasi cosa mai vista prima. "Ai tempi di Neanderthal, non abbiamo mai avuto il potenziale di lavorare in collaborazione con una specie completamente nuova che è intelligente", afferma Mattu. "Se riusciamo a superare le barriere alla condivisione dell'empatia con una forma di vita artificiale, ciò potrebbe portare a un'età straordinaria per l'umanità".
L'hardware non è l'ostacolo che impedisce a un simile essere di emergere: è semplicemente un compito di ingegneria, afferma Fink. Invece, creare il software - il fantasma nella macchina - è la vera sfida. I ricercatori stanno adottando due approcci diversi per questo problema. Alcuni stanno cercando di creare un essere senziente pronto da caricare da zero, mentre altri pensano che scrivere un programma di base dotato degli strumenti necessari per apprendere, adattarsi e modificarsi attraverso l'esperienza, come si vede in Chappie, è la strada da percorrere . Come spiega Fink: "È il caso di cuocere già la torta e metterla nel sistema, oppure dare al sistema gli ingredienti per la torta e lasciarla al sistema per cuocerla".
Quando arriverà la svolta, molto probabilmente accadrà non in modo incrementale ma all'improvviso, come illustrato in Chappie . Fink prevede che - piuttosto che un'università, un governo o una società che si prendano il merito - l'interruzione che porta alla singolarità sarà fornita da un piccolo team di ricercatori o persino da un singolo individuo, probabilmente sostenuto da un ricco finanziatore privato, animato dalla libertà sperimentare e liberarsi dalla ricerca tradizionale conservatrice. In effetti, questo è quasi lo scenario di Chappie : Chappie non è creato da una società di grandi dimensioni, ma da un ingegnere autonomo, interpretato da Dev Patel, che utilizza tutte le risorse fornite dal suo comodo lavoro diurno per supportare il suo lavoro molto diverso sull'intelligenza artificiale autonoma di notte.
Una volta che emergerà un'intelligenza artificiale veramente autonoma, sarà impossibile prevedere quanto sarà complesso il sistema o in quale direzione si evolverà. A differenza dei sistemi organici come noi, non sarebbe vincolato dal lento slogan dell'evoluzione biologica. Il suo sviluppo sarebbe esplosivo. Non vi è alcuna garanzia che tale sistema adotterà o manterrebbe un insieme di valori morali o etici o che tali valori si estenderebbero agli umani. Nel caso di Chappie - che si sviluppa in modo molto simile a un bambino umano, imparando e maturando con il passare del tempo - una promessa iniziale di non danneggiare gli umani fa molto per tenere sotto controllo le azioni del robot. Ma quando minacciato di annientamento, Chappie, come molti umani, in gran parte mette da parte la sua morale e agisce per puro interesse personale, difendendosi anche se ciò significa ferire gli altri.
E mentre Chappie si presenta come paragonabile e simile all'uomo, un robot senziente del mondo reale probabilmente non si atterrebbe al ragionamento simile all'uomo, diminuendo la nostra capacità di anticipare le sue azioni o comprenderne le motivazioni. "Una volta raggiunto quel livello, hai sostanzialmente perso il controllo del sistema", afferma Fink. "È sia eccitante che spaventoso, perché non sarà simile all'uomo."
Inoltre, indipendentemente dal fatto che il software risieda inizialmente nel guscio di un robot umanoide simile a Chappie, in un'astronave o persino in un impianto nel tuo corpo, una volta che sfugge ai confini di quella forma fisica - come raffigurato (seppur degnamente) nella Trascendenza - sarebbe essere quasi impossibile contenerlo.
Mentre libri e film di fantascienza hanno riflettuto sulla questione dell'intelligenza artificiale per decenni, Fink sottolinea che la svolta necessaria "potrebbe letteralmente accadere in qualsiasi momento adesso." Non tutti sono a proprio agio con questo. Lo scorso gennaio, Elon Musk, cofondatore di PayPal e CEO di Tesla Motors, ha donato 10 milioni di dollari per impedire che un giorno i signori dei robot prendessero il controllo del pianeta e ci eliminassero. Tentando di creare un'intelligenza artificiale autonoma, avverte, "stiamo evocando il demone".
Musk non è solo nella sua trepidazione su questa linea di ricerca. In un recente thread di "Ask Me Anything" di Reddit, il co-fondatore e filantropo di Microsoft Bill Gates ha scritto che è "nel campo che si preoccupa della super intelligenza" e "non capisce perché alcune persone non sono preoccupate" di artificiali artificiali esseri che superano le nostre capacità cognitive e acquisiscono autonomia. Allo stesso modo il fisico Stephen Hawkings condivide questa preoccupazione e la espone ancora più apertamente: "Lo sviluppo della piena intelligenza artificiale potrebbe significare la fine della razza umana", ha detto alla BBC.
Persino i film di successo dei fumetti stanno camminando su questo percorso logoro, normalmente riservato al genere fantascientifico. Come accennato nell'ultimo trailer di Marvel's Avengers: Age of Ultron, gli eroi del film combattono con un robot che è stato originariamente creato come il salvatore del pianeta dalla guerra, ma invece decide di sterminare l'umanità.
D'altra parte, tuttavia, gli umani potrebbero essere gli aggressori, minacciando l'esistenza degli esseri autonomi che noi stessi creiamo, come rappresentato in Chappie . Se noi umani seguiamo un percorso pacifico dipende in gran parte da due cose, dice Mattu: se siamo in grado di comunicare con i robot, e se abbiamo empatia per loro. Quest'ultimo, spiega, dipende da fattori apparentemente superficiali come quello che sembrano i robot: hanno gli occhi? Sembrano simili, ma non troppo simili a noi? - e se si presentano come generalmente simpatici. Condividere gli stessi obiettivi come noi aiuterebbe anche il loro caso. Questi fattori attingono alla nostra innata tendenza neurologica a classificare gli altri come parte del nostro fidato gruppo interno o come parte di un gruppo esterno potenzialmente minaccioso. I robotisti tengono conto di tali fattori psicologici nella progettazione delle loro ultime macchine.
Mattu sottolinea, tuttavia, che anche se i robot soddisfano tutti questi requisiti, non c'è ancora alcuna garanzia che le cose andranno bene. "Gli umani hanno difficoltà abbastanza a vedersi come umani, figuriamoci nell'intelligenza artificiale o nella vita aliena", afferma Mattu. "Abbiamo anche una storia di primi contatti che vanno molto male."
Quindi potrebbe essere che distruggiamo la nostra creazione prima ancora di conoscerla, o che il contrario diventi realtà - che la nostra progenie software rende schiavi di noi tutti come si vede in Matrix, o decide, in stile Skynet, che l'umanità semplicemente non lo è degno di esistenza. D'altra parte, umani e robot autonomi potrebbero abbracciarsi l'un l'altro, accettando di lavorare insieme su attività interessanti come l'esplorazione dello spazio. L'unico modo per scoprire se le cose finiscono in fiamme e lacrime o nel progresso e nell'amicizia è, in primo luogo, creare quegli esseri. Ma se il passato è un indicatore, sarà solo una questione di tempo. "Siamo sempre guidati dalla curiosità, dal desiderio di esplorare e scoprire l'imprevisto", afferma Fink. "E l'etica scientifica tende a rimanere indietro rispetto ai nostri progressi."
"A volte otteniamo energia atomica, a volte otteniamo armi atomiche", aggiunge Mattu. "Non sappiamo quale direzione prenderà, ma non possiamo fermare la scienza."