MIT AI Bot descubre por qué algunos adultos autistas no pueden detectar emociones

Un síntoma común con el que luchan las personas con autismo es la incapacidad para interpretar las expresiones faciales. Esto puede generar dificultad para leer las señales sociales en su vida personal, escuela, lugar de trabajo e incluso medios como películas y programas de televisión. Sin embargo, los investigadores del MIT han creado una IA que ayudó a arrojar luz sobre por qué sucede exactamente esto.

Un artículo publicado el miércoles en El Diario de la Neurociencia dio a conocer una investigación que encontró que los adultos neurotípicos (aquellos que no muestran características autistas) y los adultos con autismo podrían tener diferencias clave en una región de su cerebro llamada corteza TI. Estas diferencias podrían determinar si pueden o no detectar emociones a través de expresiones faciales.

“Para los comportamientos visuales, el estudio sugiere que [the IT cortex] juega un papel importante”, Kohitij Kar, neurocientífico del MIT y autor del estudio, dijo a The Daily Beast. “Pero podría no ser la única región. Otras regiones como la amígdala también se han implicado fuertemente. Pero estos estudios ilustran cómo tener buenos [AI models] del cerebro será clave para identificar esas regiones también”.

La red neuronal de Kar en realidad se basa en un experimento anterior realizado por otros investigadores. En ese estudio, se mostraron a adultos autistas y adultos neurotípicos imágenes de rostros generadas por IA que mostraban diferentes emociones que iban desde el miedo hasta la felicidad. Los voluntarios juzgaron si las caras eran felices; los adultos autistas requirieron una indicación mucho más clara de felicidad, por ejemplo, sonrisas más grandes, para reportarlos como tales en comparación con los participantes neurotípicos.

Luego, Kar introdujo los datos de ese experimento en una IA desarrollada para imitar aproximadamente las capas del sistema de procesamiento visual del cerebro humano. Al principio, descubrió que la red neuronal podía reconocer las emociones faciales y los participantes neurotípicos. Luego quitó las capas y las volvió a probar hasta que llegó a la última capa, que investigaciones anteriores sugieren que imita aproximadamente la corteza de TI. Fue entonces cuando descubrió que la IA luchaba por igualar a los adultos neurotípicos e imitaba más a los autistas.

Esto sugiere que esta parte del cerebro, que se encuentra cerca del final del proceso de procesamiento visual, podría ser responsable del reconocimiento facial. Este estudio podría sentar las bases para una mejor manera de diagnosticar el autismo. Kar agrega que también podría ayudar en el desarrollo de medios atractivos y herramientas educativas para niños autistas.

“Los niños autistas a veces dependen en gran medida de las señales visuales para el aprendizaje y las instrucciones”, explicó Kar. “Tener un modelo preciso en el que pueda alimentar imágenes y los modelos le digan: ‘Esto funcionará mejor y esto no’ puede ser muy útil para ese propósito. Cualquier contenido visual como películas, dibujos animados y contenido educativo se puede optimizar utilizando dichos modelos para comunicarse al máximo, beneficiar y nutrir a las personas autistas”.

Leave a Comment