Utilizzando un dispositivo che traduce le immagini in suono, i neuroscienziati hanno dimostrato che le persone non vedenti riconoscono i volti di base utilizzando la parte del cervello nota come area del viso fusiforme, una regione cruciale per l’elaborazione dei volti nelle persone vedenti.

 

 

 

Utilizzando un dispositivo specializzato che traduce le immagini in suono, i neuroscienziati e i colleghi del Georgetown University Medical Center hanno dimostrato che le persone non vedenti riconoscono i volti di base utilizzando la parte del cervello nota come area del viso fusiforme, una regione cruciale per l’elaborazione dei volti nelle persone vedenti.

I risultati sono apparsi su PLOS ONE il 22 novembre 2023.

“È noto da tempo che le persone cieche possono compensare la loro perdita della vista, in una certa misura, usando gli altri sensi”, afferma Josef Rauschecker, professore presso il Dipartimento di Neuroscienze della Georgetown University e autore senior di questo studio.

“Il nostro studio ha testato la misura in cui questa plasticità, o compensazione, tra la vista e l’udito esiste codificando i modelli visivi di base in modelli uditivi con l’aiuto di un dispositivo tecnico che chiamiamo dispositivo di sostituzione sensoriale. Con l’uso della risonanza magnetica funzionale (fMRI), possiamo determinare dove nel cervello si verifica questa plasticità compensatoria”.

La percezione del volto negli esseri umani e nei primati non umani è realizzata da un mosaico di regioni corticali specializzate. Il modo in cui queste regioni si sviluppano è rimasto controverso.

A causa della loro importanza per il comportamento sociale, molti ricercatori ritengono che i meccanismi neurali per il riconoscimento facciale siano innati nei primati o dipendano dall’esperienza visiva precoce con i volti.

«I nostri risultati su persone non vedenti implicano che lo sviluppo dell’area del viso fusiforme non dipende dall’esperienza con i volti visivi reali, ma dall’esposizione alla geometria delle configurazioni facciali, che può essere trasmessa da altre modalità sensoriali», aggiunge Rauschecker.

Paula Plaza, uno degli autori principali dello studio, che ora è all’Universidad Andres Bello, in Cile, afferma: “Il nostro studio dimostra che l’area del viso fusiforme codifica il ‘concetto’ di un volto indipendentemente dal canale di input o dall’esperienza visiva, il che è una scoperta importante”.

Sei persone non vedenti e 10 vedenti, che sono servite come soggetti di controllo, sono state sottoposte a tre cicli di scansioni MRI funzionali per vedere quali parti del cervello venivano attivate durante le traduzioni dall’immagine al suono.

Gli scienziati hanno scoperto che l’attivazione cerebrale da parte del suono nelle persone non vedenti è stata trovata principalmente nell’area del viso fusiforme sinistro, mentre l’elaborazione del viso nelle persone vedenti si è verificata principalmente nell’area del viso fusiforme destro.

“Crediamo che la differenza sinistra/destra tra le persone che sono e non sono cieche possa avere a che fare con il modo in cui i lati sinistro e destro dell’area fusiforme elaborano i volti, sia come modelli collegati che come parti separate, il che può essere un indizio importante per aiutarci a perfezionare il nostro dispositivo di sostituzione sensoriale”, afferma Rauschecker, che è anche co-direttore del Center for Neuroengineering presso la Georgetown University.

Attualmente, con il loro dispositivo, le persone non vedenti possono riconoscere un volto “cartoon” di base (come una faccina felice emoji) quando viene trascritto in schemi sonori.

Riconoscere i volti attraverso i suoni era un processo che richiedeva molto tempo e molte sessioni di pratica. Ogni sessione è iniziata con il far riconoscere alle persone semplici forme geometriche, come linee orizzontali e verticali;

La complessità degli stimoli è stata poi gradualmente aumentata, così le linee hanno formato forme, come case o volti, che poi sono diventati ancora più complessi (case alte contro case larghe e facce felici contro facce tristi).

In definitiva, gli scienziati vorrebbero utilizzare immagini di volti e case reali in combinazione con il loro dispositivo, ma i ricercatori notano che dovrebbero prima aumentare notevolmente la risoluzione del dispositivo.

“Ci piacerebbe essere in grado di scoprire se è possibile per le persone non vedenti imparare a riconoscere le persone dalle loro foto. Questo potrebbe richiedere molta più pratica con il nostro dispositivo, ma ora che abbiamo individuato la regione del cervello in cui avviene la traduzione, potremmo avere una migliore gestione di come mettere a punto i nostri processi”, conclude Rauschecker.