La investigación del MIT que utiliza inteligencia artificial para reconocer las emociones faciales apunta a los posibles beneficios de la realidad aumentada para las personas con autismo

en Noticias de Realidad Aumentada

21 de junio de 2022 – Investigadores del Instituto Tecnológico de Massachusetts anunciaron recientemente que han entrenado una red neuronal artificial de procesamiento de información para reconocer emociones faciales, con el fin de ayudar a las personas con autismo a reconocer mejor las emociones que se expresan en los rostros de las personas.

Para muchas personas es fácil reconocer las emociones que se expresan en los rostros de los demás. Una sonrisa puede significar felicidad, mientras que fruncir el ceño puede significar ira. Por otro lado, las personas con autismo suelen tener más dificultades con esta tarea. No está claro por qué sucede esto, pero el 15 de junio se publicó una nueva investigación en Revista de neurocienciadestaca el funcionamiento interno del cerebro para sugerir una respuesta, y lo hace mediante el uso de inteligencia artificial (IA) para modelar los cálculos en nuestras cabezas.

El científico investigador del MIT Kohitij Kar, que trabaja en el laboratorio del profesor James DiCarlo en el MIT, espera centrarse en la respuesta. (DiCarlo, profesor Peter de Flores en el Departamento de Ciencias del Cerebro y Cognitivas, miembro del Instituto McGovern para la Investigación del Cerebro y director de Investigación sobre Inteligencia en el MIT).

Carr comenzó analizando los datos proporcionados por otros dos investigadores: Xu Wang de la Universidad de Washington en St. Louis y Ralph Adolphs del Instituto de Tecnología de California. En un experimento, mostraron imágenes de rostros de adultos con autismo y de controladores neurotípicos. Las imágenes fueron creadas por software para variar en el espectro desde el miedo hasta la felicidad, y los participantes juzgaron rápidamente si las caras representaban felicidad. En comparación con los controles, los adultos con autismo requerían niveles más altos de felicidad en las caras para reportar felicidad.

READ  Las bacterias reciclan el carbono residual en productos químicos valiosos

Carr, quien también es miembro del Centro de Cerebros, Mentes y Máquinas, entrenó una red neuronal artificial, una función matemática compleja inspirada en la estructura del cerebro, para hacer la misma tarea de determinar si las imágenes de rostros son felices. La investigación de Carr sugirió que las conexiones neuronales sensoriales en adultos con autismo pueden ser «ruidosas» o ineficaces. Para un análisis más completo de en qué consiste la investigación de Carr, lea la publicación completa del blog del MIT aqui.

Entonces, ¿dónde se relaciona algo como la realidad aumentada (AR) con todo esto? Bueno, según la investigación de Carr, cree que estos modelos computacionales de procesamiento visual pueden tener muchos usos en el futuro.

«Creo que el reconocimiento de emociones faciales es solo la punta del iceberg», dijo Carr, quien cree que estos modelos de procesamiento visual también se pueden usar para seleccionar o incluso crear contenido de diagnóstico. Por ejemplo, la inteligencia artificial se puede utilizar para crear contenido (como películas y materiales educativos) que involucre de manera óptima a niños y adultos con autismo.

Con base en la investigación, estos modelos computacionales se pueden usar para ayudar a modificar los píxeles faciales y otros relacionados en las gafas de realidad aumentada para cambiar lo que ven las personas autistas, posiblemente exagerando los niveles de felicidad (u otras emociones) en los rostros de las personas para poder para ayudar a las personas con autismo a conocer mejor los sentimientos. Según el MIT, encontrar una solución alternativa a la realidad aumentada es algo que Carr planea buscar en el futuro.

READ  Los astrónomos encontraron la galaxia "Benjamin Button".

Incluso en un formato más simple, las gafas de realidad aumentada con software de reconocimiento facial instalado pueden detectar las emociones de las personas y mostrar el texto superpuesto con la ayuda de personas autistas que usan gafas, para darles una descripción del estado emocional probable de las personas que son. . interactúa con. En última instancia, el trabajo ayuda a verificar la utilidad de los modelos computacionales, especialmente las redes neuronales para el procesamiento de imágenes, según Carr.

Para leer la publicación completa del blog del MIT, haga clic en aqui.

Crédito de la imagen: MIT


Sobre el Autor


sam ramita

Sam es el fundador y director editorial de Auganix. Con experiencia en investigación y redacción de informes, cubre artículos de noticias en las industrias de AR y VR. También tiene interés en la tecnología de aumento humano en general, y su aprendizaje no se limita solo al aspecto de la experiencia visual de las cosas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.