https://frosthead.com

I robot sono intelligenti, ma possono capirci?

Nel film, non senti mai i robot dire "Eh?"

Nonostante tutta la sua ansia, il C-3PO di "Star Wars" non è mai stato confuso. Sonny, il non umano fondamentale in "I, Robot" potrebbe essere stato confuso su ciò che era, ma non sembrava avere problemi a capire Will Smith.

Nella vita reale, tuttavia, le macchine lottano ancora intensamente con il linguaggio umano. Certo, Siri può rispondere alle domande se riconosce abbastanza delle parole in una determinata query. Ma chiedere a un robot di fare qualcosa che non è stato programmato, passo dopo passo, per fare? Bene, buona fortuna con quello.

Parte del problema è che noi come umani non siamo molto precisi nel modo in cui parliamo; quando parliamo l'un l'altro, di solito non abbiamo bisogno di esserlo. Ma chiedi a un robot di “scaldare un po 'd'acqua” e la risposta appropriata sarebbe “Cosa?” - a meno che non avesse imparato a elaborare la lunga serie di domande relative a quell'atto apparentemente semplice. Tra questi: che cos'è l'acqua? Dove lo prendi? Cosa puoi metterlo dentro? Cosa significa "riscaldare"? Di quale altro oggetto hai bisogno per fare questo? La fonte è in questa stanza?

Ora, tuttavia, i ricercatori della Cornell University hanno raccolto la sfida dell'addestramento di un robot per interpretare ciò che non si dice, o l'ambiguità di ciò che viene detto. Chiamano il progetto Tell Me Dave, un cenno a HAL, il computer con la voce rassicurante e le tendenze paranoiche nel film "2001: Odissea nello spazio".

Il loro robot, dotato di una videocamera 3D, è stato programmato per associare oggetti alle loro capacità. Ad esempio, sa che una tazza è qualcosa che puoi usare per contenere l'acqua, per bere o come modo per versare acqua in qualcos'altro; una stufa è qualcosa che può riscaldare le cose, ma anche qualcosa su cui puoi posizionare le cose. Gli scienziati informatici definiscono il fondamento della tecnica di addestramento, aiutando i robot a collegare le parole agli oggetti e alle azioni nel mondo reale.

"Le parole non significano nulla per un robot a meno che non siano radicate in azioni", spiega Ashutosh Saxena, capo del team Tell Me Dave. Il robot del progetto, dice, ha imparato a mappare frasi diverse, come "raccoglilo" o "sollevalo" nella stessa azione.

Questo è un grande passo avanti nella comunicazione uomo-robot, visti i diversi modi in cui possiamo descrivere un compito semplice.

"Tutti i robot, come quelli della produzione industriale, delle auto a guida autonoma o dei robot di assistenza, devono interagire con gli umani e interpretare il loro linguaggio impreciso", ha affermato. "Essere in grado di capire il significato delle parole dal loro contesto ambientale sarebbe utile per tutti questi robot immediatamente."

Uno sforzo di gruppo

Saxena, insieme agli studenti laureati Dipendra Misra e Jaeyong Sung, si sono anche rivolti al crowdsourcing per raccogliere quante più diverse varianti della lingua inglese possibile.

I visitatori del sito web Tell Me Dave sono invitati a dirigere un robot virtuale per completare un determinato compito, ad esempio "Crea ramen". Poiché la maggior parte delle persone tende a dare comandi diversi mentre guidano il robot attraverso il processo, il team è stato in grado di raccogliere un ampio vocabolario relativo allo stesso passaggio del processo.

Tali comandi, registrati con accenti diversi, sono associati a simulazioni video memorizzate di compiti diversi. Quindi, anche se le frasi sono diverse, "porta la pentola alla stufa" invece di "metti la pentola sulla stufa", la macchina Tell Me Dave può calcolare la probabilità di una corrispondenza con qualcosa che ha già sentito prima.

A questo punto, il robot Tell Me Dave completa le attività richieste quasi due terzi del tempo. Ciò include i casi in cui gli oggetti vengono spostati in diversi punti della stanza o il robot lavora in una stanza completamente diversa. A volte, tuttavia, il robot è ancora all'oscuro: quando gli è stato detto di aspettare che il gelato diventasse morbido, "non riusciva a capire cosa fare", dice Saxena.

Tuttavia, è diventato molto meglio nel completare passaggi non specificati. Ad esempio, quando gli è stato detto di "scaldare l'acqua nella pentola", il robot si è reso conto che prima doveva portare la pentola al rubinetto e riempirla con acqua. Sa anche che quando viene richiesto di riscaldare qualcosa, può usare la stufa o il forno a microonde, a seconda di quale è disponibile.

Saxena afferma che l'addestramento del robot Tell Me Dave deve migliorare prima di poter essere utilizzato nelle impostazioni della vita reale; essere in grado di seguire le indicazioni il 64 percento delle volte non è abbastanza buono, dice, soprattutto perché gli umani comprendono ciò che viene loro detto il 90 percento delle volte.

Saxena e il suo team presenteranno i loro algoritmi per l'addestramento dei robot e mostreranno come hanno ampliato il processo attraverso il crowdsourcing, la prossima settimana alla Conferenza di Scienza e Sistemi della Robotica presso l'Università della California, Berkeley; ricerche analoghe sono in corso presso l'Università di Washington.

Non c'è dubbio che i robot padroneggeranno gli algoritmi: è solo una questione di quando questo farà il salto dal laboratorio al mercato. L'anno prossimo? Non probabile Ma nel giro di un decennio, mentre le grandi aziende si concentrano su nuovi mercati come le auto a guida autonoma, è del tutto possibile che saremo in grado di dire a robot come Tell Me Dave di iniziare la cena.

Che cosa?

Ecco le notizie più recenti sulla ricerca sulla comunicazione con e attraverso i robot:

  • Qual è il gesto di "assicurarsi che il mio sedile sia caldo" ?: Mercedes-Benz vuole essere la prima grande azienda automobilistica a iniziare a vendere auto senza conducente, forse già dal 2020, ei suoi ingegneri hanno iniziato a lavorare con esperti di robotica per sviluppare modi per le persone a comunicare con i loro veicoli. Un metodo che attira molta attenzione è l'uso dei segnali manuali che i sensori di un'auto potrebbero comprendere. Gli esperti affermano che con il gesto giusto potresti chiamare la tua auto parcheggiata a prenderti.
  • Infine, robot di supporto per i meccanici: in Audi, gli aiutanti dei robot saranno presto spediti ai meccanici dell'azienda in tutto il mondo. I robot saranno dotati di telecamere 3D controllate da uno specialista fuori sede, che può guidare le persone che lavorano effettivamente sulle auto attraverso complicate riparazioni.
  • Rendere Siri più intelligente: secondo un rapporto su Wired, Apple ha iniziato ad assumere i migliori esperti di riconoscimento vocale mentre inizia a concentrarsi sul concetto di reti neurali, facendo in modo che le macchine imparino le parole costruendo connessioni e imitando il modo in cui i neuroni funzionano nel cervello umano.
  • Il robot ha bisogno di un passaggio per una mostra d'arte: alla fine di questo mese, un robot inizierà a fare l'autostop in tutto il Canada. Chiamato HitchBOT, è stato descritto come un esperimento sociale di progetto artistico combinato. L'obiettivo è vedere se HitchBOT può arrivare da Halifax a una galleria in tutto il paese nella British Columbia. Non sarà in grado di muoversi da solo, ma sarà dotato di un microfono e di una videocamera che gli consentiranno di rilevare movimenti e parole. Sarà anche in grado di rispondere alle domande utilizzando un database di provenienza Wikipedia.
I robot sono intelligenti, ma possono capirci?