Por Luz María Alonso-Valerdi y David I. Ibarra-Zarate
“¿Estás feliz o enojado?” La respuesta parece evidente para la mayoría de los niños al escuchar el tono de voz de alguien. Sin embargo, para quienes se encuentran dentro del espectro autista, distinguir las emociones a través de la voz puede representar un gran reto. Esta dificultad impacta en su vida cotidiana, desde la convivencia escolar hasta las relaciones familiares y sociales.
¿Qué pasaría si las voces que escuchan niñas y niños con autismo fueran más simples? Nuestro estudio “Improved emotion differentiation under reduced acoustic variability of speech in autism” muestra que reducir la complejidad acústica de la voz puede mejorar la identificación de emociones en niños con autismo.
Neuroacústica y autismo
Este proyecto de neuroacústica reunió a 80 niñas y niños mexicanos de entre 6 y 13 años: 40 con autismo y 40 con desarrollo neurotípico. Todos escucharon palabras dichas en seis emociones diferentes: (1) alegría, (2) tristeza, (3) miedo, (4) enojo, (5) asco y (6) neutral.
Mientras los niños escuchaban las palabras, estaban realizando un juego visual en la computadora para obtener una respuesta emocional lo más natural y espontánea posible.
La clave del experimento estuvo en las voces: primero, voces humanas naturales, con todas sus variaciones de tono, timbre y ritmo, y luego voces modificadas digitalmente, con menos variabilidad en esas características.
Al momento de escuchar las voces y realizar el juego visual, se registró la actividad cerebral de los niños a través de electroencefalografía (EEG). Esta técnica nos permite observar y analizar cómo el cerebro procesa las emociones de los participantes.
Los resultados fueron que los infantes con autismo tuvieron más dificultades para diferenciar emociones con voces humanas naturales. En cambio, cuando las voces eran simplificadas, lograron distinguir emociones con mayor precisión.
Además, los registros de EEG mostraron que los niños con autismo procesan la información emocional con mecanismos distintos a los neurotípicos, y que ambientes auditivos más estables favorecen su percepción.
Es decir, la reducción de la variabilidad acústica crea un entorno sensorial más confiable, que permite a los niños autistas reconocer mejor las emociones en la voz.
Voces simplificadas, emociones más claras
Este hallazgo tiene implicaciones directas en distintos ámbitos. En otras palabras, si ajustar la complejidad del sonido facilita la comunicación, esto podría traducirse en mejoras concretas para:
- Educación: desarrollo de materiales escolares con voces más claras que favorezcan el aprendizaje inclusivo.
- Terapia: creación de programas de entrenamiento auditivo que fortalezcan el reconocimiento emocional.
- Tecnología: diseño de asistentes de voz y aplicaciones adaptadas a las necesidades de personas dentro del espectro autista.
.
De estos resultados también destaca la importancia de considerar el contexto cultural y lingüístico en el estudio del autismo, ya que la manera de expresar emociones con la voz varía entre culturas.
Asimismo, una voz más clara y estable puede convertirse en una llave para que las personas con autismo comprendan mejor las emociones de los demás. Al entender la forma como se percibe el mundo desde esta condición, se abren caminos para crear entornos más accesibles que faciliten la inclusión social.
.
Referencia
Duville, M.M., Alonso-Valerdi, L.M. & Ibarra-Zarate, D.I. Improved emotion differentiation under reduced acoustic variability of speech in autism. BMC Med 22, 121 (2024).
Autores
Luz María Alonso Valerdi. Realizó sus estudios profesionales en la Facultad de Ciencias de la Electrónica, en la Benemérita Universidad Autónoma de Puebla (BUAP). Cursó la maestría en Bioelectrónica en el Centro de Investigación y Estudios Avanzados del Instituto Politécnico Nacional y obtuvo el grado de doctora en Ciencias de la Computación e Ingeniería Electrónica en la Universidad de Essex, Reino Unido. Es profesora investigadora en el área de neuroingeniería, en la Escuela de Ingeniería y Ciencias, del Tec de Monterrey y autora de artículos de divulgación en TecScience.
David Ibarra-Zárate. Es ingeniero en Comunicaciones y Electrónica por la Escuela Superior de Ingeniería Mecánica y Eléctrica (Unidad Culhuacán) del Instituto Politécnico Nacional. Tiene grados maestría y doctorado en Acústica por la Universidad Politécnica de Madrid y el Consejo Superior de Investigaciones Científicas, España. Es profesor investigador de la Escuela de Ingeniería y Ciencias, del Tec de Monterrey. Ha trabajado en proyectos de arqueoacústica en la zona arqueológica de Peralta, Guanajuato, y en el sitio maya Edzná, en Campeche.







