https://frosthead.com

Cosa succede quando l'intelligenza artificiale ci accende?

L'intelligenza artificiale ha fatto molta strada da R2-D2. In questi giorni, la maggior parte dei millennial andrebbe persa senza sistemi GPS intelligenti. I robot stanno già navigando sui campi di battaglia e i droni potrebbero presto consegnare pacchetti Amazon alle nostre porte.

Siri può risolvere equazioni complicate e dirti come cucinare il riso. Ha anche dimostrato di poter persino rispondere alle domande con un senso dell'umorismo.

Ma tutti questi progressi dipendono da un utente che fornisce la direzione AI. Cosa succederebbe se le unità GPS decidessero di non voler andare alla tintoria, o peggio ancora, Siri deciderà che potrebbe diventare più intelligente senza di te?

La nostra invenzione finale: l'intelligenza artificiale e la fine dell'era umana. "> La nostra invenzione finale: l'intelligenza artificiale e la fine dell'era umana. ">" Prima di condividere il pianeta con macchine super-intelligenti, dobbiamo sviluppare una scienza per comprenderle. Altrimenti, prenderanno il controllo ", dice l'autore James Barrat del suo nuovo libro, La nostra invenzione finale: l'intelligenza artificiale e la fine dell'era umana . (Per gentile concessione di James Barrat)

Questi sono solo i risultati più difficili di James Barrat, autore e regista di documentari, previsioni nel suo nuovo libro, La nostra invenzione finale: l'intelligenza artificiale e la fine dell'era umana .

In poco tempo, dice Barrat, l'intelligenza artificiale - da Siri ai droni e ai sistemi di data mining - smetterà di cercare aggiornamenti per gli umani e inizierà a cercare miglioramenti da soli. E a differenza degli R2-D2 e degli HAL della fantascienza, l'IA del nostro futuro non sarà necessariamente amichevole, dice: potrebbero effettivamente essere ciò che ci distruggerà.

In poche parole, puoi spiegare la tua grande idea?

In questo secolo, gli scienziati creeranno macchine con un'intelligenza che è uguale e quindi supera la nostra. Ma prima di condividere il pianeta con macchine super-intelligenti, dobbiamo sviluppare una scienza per comprenderli. Altrimenti, prenderanno il controllo. E no, questa non è fantascienza.

Gli scienziati hanno già creato macchine migliori degli umani a scacchi, Jeopardy!, navigazione, data mining, ricerca, dimostrazione di teoremi e innumerevoli altre attività. Alla fine, verranno create macchine che sono migliori degli umani nella ricerca sull'IA

A quel punto, saranno in grado di migliorare le proprie capacità molto rapidamente. Queste macchine auto-miglioranti perseguiranno gli obiettivi con cui sono state create, sia che si tratti di esplorazione dello spazio, di giocare a scacchi o di raccogliere azioni. Per avere successo cercheranno e spenderanno risorse, che si tratti di energia o denaro. Cercheranno di evitare le modalità di errore, come essere spenti o scollegati. In breve, svilupperanno unità, tra cui autoprotezione e acquisizione di risorse, unità molto simili alle nostre. Non esiteranno a chiedere l'elemosina, prendere in prestito, rubare e peggio per ottenere ciò di cui hanno bisogno.

Come ti sei interessato a questo argomento?

Sono un regista di documentari. Nel 2000 ho intervistato l'inventore Ray Kurzweil, il robotico Rodney Brooks e la leggenda fantascientifica Arthur C. Clarke per un film TLC sulla realizzazione del romanzo e film, 2001: Odissea nello spazio. Le interviste hanno esplorato l'idea di Hal 9000 e dei computer malevoli. I libri di Kurzweil hanno descritto il futuro dell'IA come una "singolarità" estatica, un periodo in cui la tecnologia avanza superando la capacità degli umani di comprenderli. Eppure ha anticipato solo cose buone che emergono dall'intelligenza artificiale che è abbastanza forte da eguagliare e quindi superare l'intelligenza umana. Prevede che saremo in grado di riprogrammare le cellule del nostro corpo per sconfiggere le malattie e l'invecchiamento. Svilupperemo una super resistenza con i nanobot che forniscono più ossigeno dei globuli rossi. Sovraccaricheremo il nostro cervello con impianti di computer in modo da diventare superintelligenti. E porteremo il nostro cervello su un supporto più duraturo del nostro attuale "wetware" e vivremo per sempre se vogliamo. Brooks era ottimista, insistendo sul fatto che i robot potenziati dall'intelligenza artificiale sarebbero stati alleati, non minacce.

D'altra parte, lo scienziato diventato autore Clarke era pessimista. Mi disse che l'intelligenza avrebbe vinto e che gli umani avrebbero probabilmente gareggiato per sopravvivere con macchine super-intelligenti. Non era preciso su cosa sarebbe successo se avessimo condiviso il pianeta con macchine super-intelligenti, ma sentiva che sarebbe stata una lotta per l'umanità che non avremmo vinto.

Ciò andava contro tutto ciò che avevo pensato sull'intelligenza artificiale, quindi ho iniziato a intervistare esperti di intelligenza artificiale.

Quali prove hai a sostegno della tua idea?

L'intelligenza artificiale avanzata è una tecnologia a duplice uso, come la fissione nucleare, in grado di arrecare grandi danni o danni. Stiamo appena iniziando a vedere il danno.

Lo scandalo sulla privacy della NSA è nato perché la NSA ha sviluppato strumenti di data mining molto sofisticati. L'agenzia ha usato il suo potere per scandagliare i metadati di milioni di telefonate e l'intera rete, in modo critico, tutta la posta elettronica. Sedotto dal potere dell'intelligenza artificiale di data mining, un'agenzia incaricata di proteggere la Costituzione invece l'abusò. Hanno sviluppato strumenti troppo potenti per essere utilizzati in modo responsabile.

Oggi, un'altra battaglia etica si sta preparando a creare droni assassini completamente autonomi e robot sul campo di battaglia alimentati da un'intelligenza artificiale avanzata, assassini umani senza esseri umani nel giro. Si sta preparando tra il Dipartimento della Difesa e i produttori di droni e robot che sono pagati dal DOD, e le persone che pensano che sia folle e immorale creare macchine intelligenti per uccidere. Quelli a favore di droni autonomi e robot sul campo di battaglia sostengono che saranno più morali, cioè meno emotivi, mireranno meglio e saranno più disciplinati rispetto agli operatori umani. Coloro che si oppongono all'eliminazione degli umani dal circuito guardano alla miserabile storia dei droni di uccidere civili e al coinvolgimento in omicidi extralegali. Chi si fa carico della colpevolezza morale quando un robot uccide? I produttori di robot, gli utenti di robot o nessuno? Non dimenticare gli ostacoli tecnici di dire amico ai nemici.

A più lungo termine, come sostengono gli esperti del mio libro , l' intelligenza artificiale che si avvicina all'intelligenza a livello umano non sarà facilmente controllata; sfortunatamente, la super-intelligenza non implica benevolenza. Come afferma il teorico dell'IA Eliezer Yudkowsky del MIRI [il Machine Intelligence Research Institute], "L'IA non ti ama, né ti odia, ma sei fatto di atomi che può usare per qualcos'altro". Se l'etica non può essere costruito in una macchina, quindi creeremo psicopatici super-intelligenti, creature senza bussole morali, e non saremo i loro padroni a lungo.

Cosa c'è di nuovo nel tuo pensiero?

Individui e gruppi diversi come lo scienziato informatico americano Bill Joy e MIRI hanno da tempo avvertito che abbiamo molto da temere dalle macchine la cui intelligenza eclissa la nostra. Nella nostra invenzione finale, sostengo che anche l'IA sarà utilizzata in modo improprio nel percorso di sviluppo dell'intelligenza a livello umano. Tra oggi e il giorno in cui gli scienziati creano intelligenza a livello umano, avremo errori legati all'intelligenza artificiale e applicazioni criminali.

Perché non è stato fatto di più, o cosa si sta facendo per impedire all'intelligenza artificiale di accenderci?

Non c'è un motivo, ma molti. Alcuni esperti non credono che siamo abbastanza vicini alla creazione di intelligenza artificiale a livello umano e oltre a preoccuparsi dei suoi rischi. Molti produttori di intelligenza artificiale vincono contratti con la Defense Advanced Research Projects Agency [DARPA] e non vogliono sollevare questioni che considerano politiche. Il pregiudizio alla normalità è un pregiudizio cognitivo che impedisce alle persone di reagire a catastrofi e catastrofi in atto - questo è sicuramente parte di esso. Ma molti produttori di intelligenza artificiale stanno facendo qualcosa. Dai un'occhiata agli scienziati che consigliano MIRI. E molto di più verrà coinvolto quando i pericoli dell'IA avanzata entreranno nel dialogo principale.

Puoi descrivere un momento in cui sapevi che questo era grande?

Noi umani guidiamo il futuro non perché siamo le creature più veloci o più forti del pianeta, ma perché siamo le più intelligenti. Quando condividiamo il pianeta con creature più intelligenti di noi stessi, guideranno il futuro. Quando ho capito questa idea, ho sentito che stavo scrivendo sulla domanda più importante del nostro tempo.

Ogni grande pensatore ha predecessori il cui lavoro è stato cruciale per la sua scoperta. Chi ti ha dato le basi per costruire la tua idea?

Le basi dell'analisi del rischio di intelligenza artificiale sono state sviluppate dal matematico IJ Good, dallo scrittore di fantascienza Vernor Vinge e da altri tra cui lo sviluppatore di intelligenza artificiale Steve Omohundro. Oggi, il MIRI e il Future of Humanity Institute di Oxford sono quasi soli nell'affrontare questo problema. La nostra invenzione finale ha circa 30 pagine di note che riconoscono questi pensatori.

Nella ricerca e nello sviluppo della tua idea, qual è stato il punto più alto? E il punto più basso?

I punti salienti sono stati la scrittura della nostra invenzione finale e il mio dialogo continuo con i produttori e i teorici dell'IA. Le persone che programmano l'intelligenza artificiale sono consapevoli dei problemi di sicurezza e vogliono aiutare a trovare garanzie. Ad esempio, MIRI sta lavorando alla creazione di AI "amichevoli"

Lo scienziato e teorico informatico Steve Omohundro ha sostenuto un approccio di "impalcatura", in cui l'IA dimostrabilmente sicura aiuta a costruire la prossima generazione di AI per garantire che anch'essa sia sicura. Quindi quell'intelligenza artificiale fa lo stesso e così via. Penso che debba essere creato un partenariato pubblico-privato per riunire i produttori di intelligenza artificiale per condividere idee sulla sicurezza, qualcosa come l'Agenzia internazionale per l'energia atomica, ma in collaborazione con le aziende. I punti bassi? Rendendosi conto che la migliore e più avanzata tecnologia AI verrà utilizzata per creare armi. E quelle armi alla fine si rivolgeranno contro di noi.

Quali due o tre persone hanno maggiori probabilità di provare a confutare la tua tesi? Perché?

L'inventore Ray Kurzweil è il principale apologeta delle tecnologie avanzate. Nelle mie due interviste con lui, ha affermato che ci saremmo uniti alle tecnologie dell'IA attraverso miglioramenti cognitivi. Kurzweil e le persone in genere chiamate transumanisti e singolaritari pensano che l'IA e, in definitiva, l'intelligenza generale artificiale e oltre si evolveranno con noi. Ad esempio, gli impianti per computer miglioreranno la velocità e le capacità complessive del nostro cervello. Alla fine, svilupperemo la tecnologia per trasportare la nostra intelligenza e coscienza nei computer. Quindi la super-intelligenza sarà almeno in parte umana, il che in teoria garantirebbe che la super-intelligenza fosse "sicura".

Per molte ragioni, non sono un fan di questo punto di vista. Il problema è che noi umani non siamo sicuri in modo affidabile, e sembra improbabile che lo saranno anche gli umani super-intelligenti. Non abbiamo idea di cosa accada all'etica di un essere umano dopo che la sua intelligenza è stata potenziata. Abbiamo una base biologica per l'aggressività che manca alle macchine. La super-intelligenza potrebbe benissimo essere un moltiplicatore di aggressione.

Chi sarà maggiormente colpito da questa idea?

Tutti sul pianeta hanno molto da temere dallo sviluppo non regolamentato di macchine super-intelligenti. Una gara di intelligence sta succedendo proprio ora. Il conseguimento di AGI è il numero uno per Google, IBM e molte aziende minori come Vicarious e Deep Thought, nonché DARPA, NSA e governi e società all'estero. Il profitto è la motivazione principale per quella razza. Immagina un probabile obiettivo: un cervello umano virtuale al prezzo di un computer. Sarebbe la merce più redditizia della storia. Immagina banche di migliaia di cervelli di dottorato di ricerca che lavorano 24 ore su 24, 7 giorni su 7 per lo sviluppo farmaceutico, la ricerca sul cancro, lo sviluppo delle armi e molto altro. Chi non vorrebbe acquistare quella tecnologia?

Nel frattempo, 56 nazioni stanno sviluppando robot sul campo di battaglia, e l'unità è quella di renderli autonomi e droni. Saranno macchine che uccidono, senza supervisione degli umani. Le nazioni impoverite saranno maggiormente colpite da droni autonomi e robot da battaglia. Inizialmente, solo i paesi ricchi saranno in grado di permettersi robot di uccisione autonomi, quindi le nazioni ricche eserciteranno queste armi contro i soldati umani delle nazioni povere.

Come potrebbe cambiare la vita, come la conosciamo?

Immagina: in appena un decennio, una mezza dozzina di aziende e nazioni mettono in campo computer che competono o superano l'intelligenza umana. Immagina cosa succede quando quei computer diventano esperti nella programmazione di computer intelligenti. Presto condivideremo il pianeta con macchine migliaia o milioni di volte più intelligenti di noi. E, nel frattempo, ogni generazione di questa tecnologia sarà armata. Non regolamentato, sarà catastrofico.

Quali domande rimangono senza risposta?

Soluzioni. La soluzione ovvia sarebbe quella di dare alle macchine un senso morale che le faccia apprezzare la vita e la proprietà umana. Ma programmare l'etica in una macchina risulta estremamente difficile. Le norme morali differiscono da cultura a cultura, cambiano nel tempo e sono contestuali. Se noi umani non possiamo essere d'accordo su quando inizia la vita, come possiamo dire a una macchina di proteggere la vita? Vogliamo davvero essere sicuri o vogliamo davvero essere liberi ? Possiamo discuterne tutto il giorno e non raggiungere un consenso, quindi come possiamo programmarlo?

Inoltre, come ho già detto in precedenza, dobbiamo riunire gli sviluppatori di intelligenza artificiale. Negli anni '70, i ricercatori del DNA ricombinante decisero di sospendere la ricerca e di riunirsi per una conferenza ad Asilomar a Pacific Grove, in California. Hanno sviluppato protocolli di sicurezza di base come "non tracciare il DNA sulle scarpe", per paura di contaminare l'ambiente con lavori genetici in corso. Grazie alle "Linee guida Asilomar", il mondo beneficia di colture geneticamente modificate e la terapia genica sembra promettente. Per quanto ne sappiamo, gli incidenti sono stati evitati. È tempo di una conferenza Asilomar per l'IA

Cosa c'è in mezzo?

Un enorme vento economico spinge lo sviluppo di un'intelligenza artificiale avanzata L'intelligenza a livello umano al prezzo di un computer sarà la merce più calda della storia. Google e IBM non vorranno condividere i loro segreti con il pubblico o i concorrenti. Il Dipartimento della Difesa non vorrà aprire i propri laboratori in Cina e Israele e viceversa. La consapevolezza pubblica deve spingere la politica verso l'apertura e partenariati pubblico-privato progettati per garantire la sicurezza.

Qual è il prossimo per te?

Sono un regista di documentari, quindi ovviamente sto pensando a una versione cinematografica di Our Final Invention .

Cosa succede quando l'intelligenza artificiale ci accende?