Una protesi vocale per tradurre i pensieri in parole: così la scienza vuole ridare voce a chi soffre di disturbi neurologici

Un gruppo di ricercatori della Duke University ha messo a punto una protesi vocale capace di trasformare il pensiero in parola traducendo di fatto i segnali cerebrali. Quest’interfaccia cervello-computer potrebbe aiutare tante persone a riacquistare quella capacità di comunicare persa a causa di malattie neurodegenerative come la Sclerosi Laterale Amiotrofica o la sindrome Locked-in.
Entra nel nuovo canale WhatsApp di Ohga
Kevin Ben Alì Zinati 21 Novembre 2023
* ultima modifica il 22/11/2023

Ci sono persone che non hanno più una voce. Patologie, disturbi neurologici o motori debilitanti come la Sclerosi laterale amiotrofica o la Sindrome Locked-in, infatti, possono compromettere la capacità di parlare e quindi di esprimersi e comunicare.

Una condizione che finisce per comprometterne anche la capacità di autodeterminarsi, di stabilire insomma la propria identità.

La soluzione su cui da tempo si riflette è quella di trovare un modo di trasformare il pensiero in parola, e oggi non è più impossibile. Un gruppo di neurochirurghi e ingegneri americani della Duke University di Durham, nella Carolina del Nord (Usa) è riuscito infatti a mettere a punto una protesi vocale capace di tradurre i segnali cerebrali.

Quest’interfaccia cervello-computer potrebbe insomma aiutare tante persone a riacquistare la capacità di comunicare e, dunque, a riprendersi anche una “voce” propria.

Rispetto alle attuali protesi vocali con 128 elettrodi (a sinistra), gli ingegneri della Duke hanno sviluppato un nuovo dispositivo con il doppio dei sensori e un ingombro notevolmente ridotto. Photo credit: Dan Vahaba/Duke University.

Gregory Cogan, professore di neurologia alla Duke University School of Medicine e tra gli autori dello studio pubblicato su Nature Communications ha spiegato che la miglior migliore velocità di decodifica vocale oggi si aggira intorno alle 78 parole al minuto ma che le persone parlano circa 150 parole al minuto.

Il ritardo tra la velocità del parlato e quella di decodifica, in parte dipende dai pochi sensori di attività cerebrale che possono essere fusi su un pezzo di materiale sottilissimo che si trova sulla superficie del cervello. Meno sensori ci sono e meno informazioni decifrabili da decodificare vengono fornite al cervello.

Per provare a superare questo scoglio, i ricercatori hanno quindi provato ad inserire 256 microscopici sensori cerebrali in un pezzo di plastica flessibile delle dimensioni di un francobollo e a testarlo poi su quattro persone che hanno scelto di ricevere l’impianto del dispositivo mentre subivano un intervento chirurgico al cervello a seguito di altre patologie, come il trattamento della malattia di Parkinson o l’asportazione di un tumore.

Una volta eseguita la procedura, i ricercatori hanno sottoposto i pazienti a un’attività di ascolto e ripetizione di una serie di parole senza senso come “ava”, “kug” o “vip”, per poi ripeterle ad alta voce.

Nel laboratorio, i ricercatori hanno analizzato una serie colorata di dati sulle onde cerebrali. Ogni tonalità e linea uniche rappresentavano l’attività di uno dei 256 sensori, tutti registrati in tempo reale dal cervello di un paziente in sala operatoria. Photo credit: Dan Vahaba/Duke University.

Il dispositivo ha quindi registrato l'attività della corteccia motoria vocale di ciascun paziente mentre parlava coordinando il movimento di quasi cento muscoli per muovere labbra, lingua, mascella e laringe.

Quei dati neurali e vocali sono stati poi dati in pasto a un algoritmo di apprendimento automatico per cercare di vedere se fosse stato possibile leggere le registrazioni dell’attività cerebrale di una persona e prevedere quindi quale suono sarebbe stato emesso. Il sistema ha funzionato.

Per alcuni suoni e partecipanti, come "g" nella parola "gak", il decodificatore ha indovinato quando si trattava del primo suono di una stringa di tre che componevano una determinata parola senza senso nell’84% delle volte.

Certo un po’ di precisione è mancata, specialmente quando il decodificatore ha eliminato i suoni nel mezzo o alla fine di una parola oppure quando vi erano due suoni simili, come "p" e "b".

In ogni caso, il risultato è stato ottenuto nel 40% dei casi: un risultato importantissimo dal momento che tecnologie simili richiedono ore o giorni di dati per andare dal cervello al parlato. L’algoritmo di decodifica vocale messo a punto dai ricercatori della Duke, invece, funzionava con solo 90 secondi di dati parlati registrati in un testi di soli 15 minuti.

Il dispositivo, in sostanza, è stato in grado di decodificare i segnali cerebrali di una persona mentre li pensava e di vocalizzarli.

“Stiamo sviluppando lo stesso tipo di dispositivi di registrazione, ma senza fili – ha spiegato Cogan – Saresti in grado di muoverti e non dovresti essere legato a una presa elettrica, il che è davvero emozionante”. 

Sebbene resti comunque ancora molta strada da fare affinché la protesi vocale diventi accessibile a tutti, la strada è stata aperta e la rotta tracciata. Il futuro, secondo i ricercatori, non è più così lontano.

Fonte | "High-resolution neural recordings improve the accuracy of speech decoding" pubblicato il 6 novembre 2023 sulla rivista Nature Communications

Le informazioni fornite su www.ohga.it sono progettate per integrare, non sostituire, la relazione tra un paziente e il proprio medico.