https://frosthead.com

I neuroscienziati hanno convertito le onde cerebrali in discorsi verbali

La stessa tecnologia che alimenta il tuo assistente mobile chiacchierone potrebbe un giorno dare voce a coloro che hanno perso la capacità di parlare. Come riporta Renae Reints per Fortune, i neuroscienziati della Columbia University hanno recentemente fatto un grande progresso verso questo obiettivo futuristico, traducendo con successo le onde cerebrali in parole comprensibili per la prima volta.

La ricerca del team, pubblicata su Scientific Reports, prevede un approccio un po 'non convenzionale. Invece di seguire direttamente i pensieri per produrre discorsi, i ricercatori hanno registrato modelli neurologici generati da soggetti test che ascoltano altri parlare. Queste onde cerebrali sono state immesse in un vocoder - un algoritmo di intelligenza artificiale che sintetizza la parola - e poi sono state convertite in comprensibili, sebbene dal suono robotico, rispecchiando le frasi ascoltate dai partecipanti.

"Le nostre voci ci aiutano a collegarci con i nostri amici, la famiglia e il mondo che ci circonda, motivo per cui perdere il potere della propria voce a causa di lesioni o malattie è così devastante", afferma l'autore dello studio Nima Mesgarani, ingegnere del programma di neurobiologia della Columbia in una dichiarazione. “Con lo studio di oggi, abbiamo un potenziale modo per ripristinare quel potere. Abbiamo dimostrato che, con la giusta tecnologia, i pensieri di queste persone potrebbero essere decodificati e compresi da qualsiasi ascoltatore. "

Vale la pena notare, secondo George Dvorsky di Gizmodo, che gli scienziati non hanno ancora capito come tradurre in parole direttamente i pensieri interni, noti anche come parole immaginate. In questo scenario ideale, gli individui che utilizzano la tecnologia del parlato semplicemente immaginerebbero quello che volevano dire, quindi aspettano che un sistema vocale artificiale verbalizzi questi pensieri.

Il defunto fisico britannico Stephen Hawking ha usato una versione rudimentale della tecnologia di sintesi vocale per comunicare con gli altri. Mentre Nina Godlewski scrive per Newsweek, a Hawking è stata diagnosticata la sclerosi laterale amiotrofica (SLA) all'età di 21 anni. La malattia dei motoneuroni alla fine rivendicò le sue capacità linguistiche, costringendolo a utilizzare un clicker portatile per attivare il discorso.

Quando Hawking perse l'uso delle sue mani, passò a un sistema basato sui movimenti del viso; Dvorsky di Gizmodo spiega inoltre che lo scienziato ha usato un interruttore per le guance collegato agli occhiali per scegliere le parole pronunciate da un sintetizzatore vocale.

Un'iterazione avanzata di questa tecnologia ometterebbe l'uomo di mezzo, consentendo agli utenti di produrre discorsi senza l'aiuto di un computer o di un sistema sensibile al movimento.

Comparativamente, osserva Avery Thompson per Popular Mechanics, lo studio del team Columbia si concentra sulla traduzione di "discorsi ascoltati". I ricercatori hanno reclutato cinque pazienti con epilessia che si sottopongono a un intervento chirurgico al cervello e hanno chiesto loro di ascoltare una serie di parole pronunciate, ad esempio una registrazione di qualcuno contando da zero a nove — mentre collegato a dispositivi di monitoraggio neurale.

Le onde cerebrali catturate da questi strumenti furono inserite nel vocoder, che sintetizzò il discorso con l'aiuto di una rete neurale addestrata, con le parole di Kristin Houser del futurismo, a "ripulire" l'output e rendere i suoni intelligibili.

Successivamente, gli scienziati hanno chiesto ad altri 11 partecipanti di ascoltare il discorso abilitato all'IA. Significativamente, il co-autore dello studio Mesgarani sottolinea nell'affermazione della Columbia, questi individui sono stati in grado di "comprendere e ripetere" i suoni circa il 75 percento delle volte - "ben oltre i tassi" visti in qualsiasi precedente esperimento. (Puoi giudicare le registrazioni da solo qui.)

In un'intervista con Dvorsky di Gizmodo, Mesgarani afferma che lui e i suoi colleghi sperano di sintetizzare frasi più complesse nel prossimo futuro. I ricercatori vogliono anche registrare segnali cerebrali generati da soggetti test che stanno pensando o immaginando l'atto di parlare piuttosto che semplicemente ascoltare gli altri parlare. Infine, aggiunge Mesgarani nella dichiarazione, il team mira a trasformare un giorno la tecnologia in un impianto in grado di tradurre i pensieri di chi lo indossa direttamente in parole.

Le potenziali limitazioni della nuova ricerca includono le sue piccole dimensioni del campione e, secondo il neuroscienziato Andrew Jackson dell'Università di Newcastle, che non era coinvolto nello studio, il fatto che le reti neurali dovrebbero essere introdotte a un vasto numero di segnali cerebrali da ogni nuovo partecipante per sintetizzare la parola oltre i numeri da zero a nove.

"Sarà interessante in futuro vedere come i decodificatori addestrati per una persona si generalizzeranno ad altre persone", dice Jackson a Gizmodo . "È un po 'come i primi sistemi di riconoscimento vocale che dovevano essere addestrati individualmente dall'utente, al contrario della tecnologia odierna, come Siri e Alexa, che possono dare un senso alla voce di chiunque, usando di nuovo le reti neurali. Solo il tempo dirà se queste tecnologie un giorno potrebbero fare lo stesso per i segnali cerebrali. "

I neuroscienziati hanno convertito le onde cerebrali in discorsi verbali