Come le persone con autismo leggono le espressioni facciali e decodificano le emozioni. Lo studio dell'Unitn con New York
Le emozioni sono un linguaggio universale e solitamente possono essere riconosciute con facilità e naturalezza. Non è così per le persone affette da disturbi dello spettro autistico. L'Università di Trento è interessata ad approfondire questi aspetti e e per questo ha pubblicato uno studio

TRENTO. Le emozioni sono un linguaggio universale e solitamente possono essere riconosciute con facilità e naturalezza. Non è così per le persone affette da disturbi dello spettro autistico (Asd) per le quali questa semplice attività risulta molto limitata, nel migliore dei casi. La ragione di questa difficoltà è da anni al centro di studi scientifici che provano a far luce sul funzionamento del cervello negli individui affetti da questi disturbi.
Uno studio dell’Università di Trento e della Stony Brook University di New York pubblicato pochi giorni fa sulla rivista "Biological Psychiatry: Cognitive Neuroscience and Neuroimaging" mette in discussione molte convinzioni e apre a nuovi scenari per migliorare le condizioni di vita e le relazioni sociali delle persone con Asd.
Leggere le espressioni facciali e decodificare le emozioni è effettivamente difficile per chi è affetto da disturbi dello spettro autistico. Ma la ragione non sta nella capacità di codifica dei segnali neurali da parte del cervello – come si è sempre pensato – quanto piuttosto nei problemi nella traduzione delle informazioni. Un problema che in questo periodo si acuisce anche a causa delle misure di contenimento della pandemia. "L’uso costante di mascherine di protezione", spiega Matthew D. Lerner, coautore dello studio e docente di Psicologia, Psichiatria e Pediatria alla Stony Brook University, "limita l’espressività del viso e questo comporta una minore disponibilità di informazioni sulle nostre emozioni. Ecco perché è importante capire come, quando e per chi emergano difficoltà di comprensione, quali siano i meccanismi alla base del fraintendimento".
Le conclusioni dello studio sono frutto di un lungo lavoro di analisi che ha impiegato tecniche di apprendimento automatico e potrebbero essere utili per rivedere l’approccio con cui si aiutano le persone con Asd a leggere le emozioni altrui.
Lo studio è stato condotto congiuntamente da un gruppo di ricercatori e ricercatrici della Stony Brook University di New York e dell’Università di Trento (Dipartimento di Ingegneria e Scienze dell’Informazione) su 192 persone di età diverse con e senza disturbi dello spettro autistico. I loro segnali neurali sono stati registrati durante la visualizzazione di molte emozioni facciali e successivamente analizzati.
Per farlo, il gruppo di ricerca ha impiegato un nuovo sistema di classificazione delle emozioni facciali che sfrutta l’apprendimento automatico, denominato Deep Convolutional Neural Networks. Questo approccio “machine learning” include un algoritmo che permette di analizzare e classificare l’attività del cervello mentre osserva i volti, rilevata tramite elettroencefalografia (Eeg). Il risultato è una mappa molto accurata dei modelli neurali che il cervello di ogni persona applica per decodificare le emozioni.
"Le tecnologie derivate dal machine learning sono generalmente considerate un motore di innovazione dei processi e dei prodotti in tutti i settori industriali", commenta Giuseppe Riccardi, coautore dello studio e docente di Sistemi di elaborazione delle informazioni all’Università di Trento (Dipartimento di Ingegneria e Scienza dell’Informazione). "Ed è evidente anche in questo caso. Le tecniche di apprendimento automatico possono aiutarci nell’interpretazione dei segnali cerebrali nel contesto dell’emozioni. Ma possono anche essere impiegate direttamente per interventi clinici. Lo studio che abbiamo condotto mostra quanto sia necessaria una forte integrazione tra competenze interdisciplinari affinché l’intelligenza artificiale abbia un impatto misurabile sulla vita delle persone".