https://frosthead.com

In che modo comprendere gli animali può aiutarci a sfruttare al massimo l'intelligenza artificiale

Ogni giorno innumerevoli titoli emergono da una miriade di fonti in tutto il mondo, avvertendo sia di terribili conseguenze sia di promettenti futuri utopici, tutto grazie all'intelligenza artificiale. L'intelligenza artificiale "sta trasformando il posto di lavoro", scrive il Wall Street Journal, mentre la rivista Fortune ci dice che stiamo affrontando una "rivoluzione dell'IA" che "cambierà la nostra vita". Ma non capiamo davvero come sarà interagire con l'IA - o come dovrebbe essere.

Si scopre, tuttavia, che abbiamo già un concetto che possiamo usare quando pensiamo all'IA: è come pensiamo agli animali. Come ex addestratore di animali (anche se brevemente) che ora studia come le persone usano l'IA, so che gli animali e l'addestramento degli animali possono insegnarci molto su come dovremmo pensare, avvicinarci e interagire con l'intelligenza artificiale, sia ora che nel futuro.

L'uso delle analogie animali può aiutare le persone normali a comprendere molti degli aspetti complessi dell'intelligenza artificiale. Può anche aiutarci a pensare al modo migliore per insegnare a questi sistemi nuove competenze e, forse soprattutto, come possiamo concepire correttamente i loro limiti, anche se celebriamo le nuove possibilità dell'IA.

Guardando i vincoli

Come spiega l'esperta di intelligenza artificiale Maggie Boden, "L'intelligenza artificiale cerca di far fare ai computer il genere di cose che le menti possono fare". I ricercatori dell'IA stanno lavorando per insegnare ai computer a ragionare, percepire, pianificare, spostare e fare associazioni. L'intelligenza artificiale può visualizzare schemi in set di dati di grandi dimensioni, prevedere la probabilità che si verifichi un evento, pianificare un percorso, gestire il programma delle riunioni di una persona e persino giocare a scenari di giochi di guerra.

Molte di queste capacità non sono di per sé sorprendenti: ovviamente un robot può rotolare in uno spazio e non scontrarsi con nulla. Ma in qualche modo l'IA sembra più magica quando il computer inizia a mettere insieme queste abilità per svolgere compiti.

Prendi, ad esempio, automobili autonome. Le origini dell'auto senza conducente risalgono a un progetto della Defense Advanced Research Project Agency dell'era degli anni '80 chiamato Autonomous Land Vehicle. Gli obiettivi del progetto erano di incoraggiare la ricerca in visione artificiale, percezione, pianificazione e controllo robotico. Nel 2004, lo sforzo di ALV è diventato il primo Grand Challenge per le auto a guida autonoma. Ora, a più di 30 anni dall'inizio dello sforzo, siamo sul precipizio delle auto autonome o a guida autonoma nel mercato civile. Nei primi anni, pochi pensavano che una simile impresa fosse impossibile: i computer non potevano guidare!

Tuttavia, come abbiamo visto, possono farlo. Le capacità delle auto autonome sono relativamente facili da comprendere per noi. Ma lottiamo per comprendere i loro limiti. Dopo l'incidente mortale di Tesla del 2015, in cui la funzione di pilota automatico dell'auto non è riuscita a percepire un passaggio del trattore-rimorchio nella sua corsia, pochi sembrano ancora comprendere la gravità di quanto sia limitato l'autopilota di Tesla. Mentre la società e il suo software sono stati eliminati per negligenza dalla National Highway Traffic Safety Administration, non è chiaro se i clienti capiscano davvero cosa l'auto può e non può fare.

E se ai proprietari di Tesla non fosse stato detto che stavano guidando una versione “beta” di un pilota automatico, ma piuttosto un'auto semi-autonoma con l'equivalenza mentale di un worm? La cosiddetta "intelligenza" che fornisce "piena capacità di guida autonoma" è in realtà un gigantesco computer che è abbastanza bravo a rilevare oggetti ed evitarli, riconoscendoli nelle immagini e pianificando in modo limitato. Ciò potrebbe cambiare le prospettive dei proprietari su quanto l'auto potrebbe davvero fare senza il contributo umano o la supervisione.

Che cos'è?

I tecnologi spesso cercano di spiegare l'IA in termini di come è costruita. Prendi, ad esempio, i progressi compiuti nell'apprendimento profondo. Questa è una tecnica che utilizza reti multilivello per imparare a svolgere un'attività. Le reti devono elaborare grandi quantità di informazioni. Ma a causa del volume dei dati richiesti, della complessità delle associazioni e degli algoritmi nelle reti, spesso non è chiaro agli umani come apprendono ciò che fanno. Questi sistemi possono diventare molto bravi in ​​un compito particolare, ma non li capiamo davvero.

Invece di pensare all'IA come qualcosa di sovrumano o alieno, è più facile analizzarli con animali, non umani intelligenti che abbiamo esperienza di addestramento.

Ad esempio, se dovessi usare l'apprendimento per rinforzo per addestrare un cane a sedersi, loderei il cane e gli darei leccornie quando siede a comando. Nel tempo, avrebbe imparato ad associare il comando al comportamento con il trattamento.

La formazione di un sistema di intelligenza artificiale può essere praticamente la stessa. Nel rafforzare l'apprendimento profondo, i progettisti umani hanno creato un sistema, immaginano ciò che vogliono che apprenda, forniscano informazioni, guardino le sue azioni e diano feedback (come lode) quando vedono ciò che vogliono. In sostanza, possiamo trattare il sistema di intelligenza artificiale come trattiamo gli animali che stiamo addestrando.

L'analogia funziona anche a un livello più profondo. Non mi aspetto che il cane seduto capisca concetti complessi come "amore" o "buono". Mi aspetto che apprenda un comportamento. Proprio come possiamo far sedere i cani, rimanere e rotolare, possiamo ottenere sistemi di intelligenza artificiale per spostare le auto sulle strade pubbliche. Ma è troppo aspettarsi che l'auto “risolva” i problemi etici che possono sorgere nel guidare le emergenze.

Aiutare anche i ricercatori

Pensare all'intelligenza artificiale come un animale addestrabile non è utile solo per spiegarlo al grande pubblico. È anche utile per i ricercatori e gli ingegneri che sviluppano la tecnologia. Se uno studioso di intelligenza artificiale sta cercando di insegnare a un sistema una nuova abilità, pensare al processo dal punto di vista di un addestratore di animali potrebbe aiutare a identificare potenziali problemi o complicazioni.

Ad esempio, se provo ad addestrare il mio cane a sedersi e ogni volta che dico "siediti" il cicalino al forno si spegne, allora il mio cane inizierà ad associare la seduta non solo al mio comando, ma anche al suono del cicalino del forno. In sostanza, il cicalino diventa un altro segnale che dice al cane di sedersi, che si chiama un "rinforzo accidentale". Se cerchiamo rinforzi o segnali accidentali nei sistemi di intelligenza artificiale che non funzionano correttamente, sapremo meglio non solo cosa sta succedendo sbagliato, ma anche quale riqualificazione specifica sarà più efficace.

Ciò richiede che comprendiamo quali messaggi stiamo trasmettendo durante l'addestramento AI, nonché ciò che l'IA potrebbe osservare nell'ambiente circostante. Il cicalino del forno è un semplice esempio; nel mondo reale sarà molto più complicato.

Prima di dare il benvenuto ai nostri signori dell'IA e di consegnare le nostre vite e i nostri lavori ai robot, dovremmo fermarci e pensare al tipo di intelligenza che stiamo creando. Saranno molto bravi a compiere azioni o compiti particolari, ma non riescono a capire i concetti e non sanno nulla. Quindi, quando stai pensando di sborsare migliaia per una nuova auto Tesla, ricorda che la sua funzione di pilota automatico è davvero solo un worm molto veloce e sexy. Vuoi davvero dare il controllo della tua vita e della vita dei tuoi cari a un verme? Probabilmente no, quindi tieni le mani sul volante e non addormentarti.


Questo articolo è stato originariamente pubblicato su The Conversation. La conversazione

Heather Roff, Senior Research Fellow, Dipartimento di Politica e Relazioni Internazionali, Università di Oxford; Ricercatore, Global Security Initiative, Arizona State University

In che modo comprendere gli animali può aiutarci a sfruttare al massimo l'intelligenza artificiale