Visione artificiale e deep learning come strumento di studio per i disturbi dello spettro autistico

Visione artificiale e deep learning come strumento di studio per i disturbi dello spettro autistico

News 29/11/2018

I disturbi dello spettro autistico possono essere finalmente quantificati dalle moderne tecniche di intelligenza artificiale, ovvero la visione artificiale ed il deep learning. A dimostrarlo sono i ricercatori del Cnr-Isasi di Lecce e del Dipartimento di studi sull’uomo dell’UniversitĂ  del Salento, che hanno condotto una lunga sperimentazione sul territorio salentino nell’ambito del progetto ‘si-robotics’.  Il team di ricercatori è internazionale e coinvolge anche l’ Institute of Communication and Health di Lugano.

Le tecniche sviluppate si basano sull’uso di tecnologie di basso costo come una webcam, da cui è possibile analizzare i fotogrammi del volto del bambino e misurare in modo non invasivo, i movimenti del volto. I ricercatori hanno sviluppato una metodologia oggettiva che permette di misurare le abilità espressive del bambino autistico durante le fasi di riproduzione. La metodologia non si basa su tecniche classiche di riconoscimento automatico delle espressioni facciali, ma sull’analisi dei precursori delle emozioni, misurando la contrazione e distensione dei muscoli facciali attraverso l’individuazione e l’inseguimento di svariati punti fiduciali del volto. Questo aspetto è estremamente importante, perché permette di valutare micro-espressioni, caratteristiche che spesso si ritrova nei soggetti autistici, che i normali software di riconoscimento facciale delle emozioni non sono in grado di cogliere, tanto più perché addestrati su soggetti a sviluppo normotipico in cui la roduzione delle espressioni facciali è molto marcata.

Confrontando i risultati con le annotazioni fatte da esperte psicologhe dell’Università del Salento, i ricercatori hanno altresì osservato un aspetto molto importante durante le sessioni di riproduzione delle emozioni. Si è rilevato che l’essere umano ha difficoltà nel rilevare le variazioni espressive della parte alta del volto quando il soggetto osservato ha una produzione delle espressioni basata prevalentemente su un marcato movimento della bocca. E’ provato infatti che il sistema visivo biologico orienta subito l’attenzione verso la bocca quando questa si muove, perdendo di vista la parte alta del volto e questa è una forte limitazione del nostro sistema visivo che può limitare la valutazione specialmente quando le espressioni facciali sono solo accennate nella parte alta del volto. Inoltre, la macchina è in grado di cogliere micro-spostamenti a livello di pixel che il sistema visivo umano non è in grado di percepire.

La sperimentazione è stata possibile grazie al notevole contributo fornito di ‘Amici di Nico’ e “L’Adelfia”, due onlus della provincia di Lecce specializzate nel trattamento del disturbo autistico. Il lavoro rappresenta un risultato importante per il Progetto Pon ‘Si-robotics – Tav’ in fase di avvio, in quanto fornisce uno strumento necessario per la valutazione oggettiva del disturbo autistico. Il progetto, che vedrĂ  impegnati i ricercatori presenti  nelle sedi Isasi di Lecce, Pozzuoli e Messina, proseguirĂ  le attivitĂ  di ricerca introducendo robot umanoidi dalle sembianze semplificate in grado di stimolare il bambino nella riproduzione delle emozioni.

I risultati sono stati pubblicati sulla rivista internazionale Sensors (https://doi.org/10.3390/s18113993) e in pochi giorni il lavoro è stato già visionato e scaricato da oltre 500 ricercatori in giro per il mondo.

Per informazioni:
Cosimo Distante
Cnr – Istituto di scienze applicate e sistemi intelligenti ‘Eduardo Caianiello’

Maggiori info nell’articolo:
Leo, M.; Carcagnì, P.; Distante, C.; Spagnolo, P.; Mazzeo, P.L.; Rosato, A.C.; Petrocchi, S.; Pellegrino, C.; Levante, A.; De Lumè, F.; Lecciso, F. Computational Assessment of Facial Expression Production in ASD Children. Sensors 2018, 18, 3993.

Vedi anche:

Immagini: