Investigadores del Tecnológico de Monterrey desarrollan un modelo de inteligencia artificial (IA) que busca identificar patrones en los mensajes que las personas publican en sus redes sociales para detectar señales asociadas con riesgo o ideación suicida.
Se trata del proyecto Mindtrack, liderado por Mahdi Zareei, profesor investigador del Departamento de Computación en la Escuela de Ingeniería y Ciencias (EIC); y Leivy Patricia González, directora del departamento de Psicología Clínica y profesora de la Escuela de Medicina y Ciencias de la Salud (EMCS), ambos del Tec campus Guadalajara.
Cada año, más de 720,000 personas fallecen por suicidio alrededor del mundo; según la ONU, esta es la tercera causa de muerte entre personas de 15 a 29 años. En México, son más de 8,000, es decir, siete personas por cada 100 mil habitantes en el país.
Mindtrack se distingue porque el entrenamiento de este modelo se basa en datos obtenidos de pacientes clínicamente diagnosticados y bajo protocolos éticos. Para esta tarea, el equipo colabora con el Hospital San Juan de Dios, una clínica privada especializada en salud mental ubicada en Zapopan, Jalisco.
“La literatura dice que (debido a múltiples factores) las personas que tienen un trastorno mental pueden tardar hasta siete años en conseguir ayuda. A través de este estudio podríamos identificar estos patrones de comportamiento de manera anticipada”, menciona González. “Poder informar a la población qué tipo de signos se ven a través de redes sociales con los jóvenes puede ser información muy valiosa para profesionales de la salud, padres y profesores”.
Aplicar la IA en salud mental
Se estima que entre el 50 y 70% de las personas muestran señales de alerta antes de intentar suicidarse, como expresar su deseo de morir, sentir gran culpa o ser una gran carga para los demás.
La iniciativa nació cuando dos estudiantes de maestría se interesaron en aplicar la IA en problemas de salud mental, relacionados con depresión e ideación suicida. Sin embargo, notaron que no se podía abordar únicamente desde la ingeniería y que era necesario un acompañamiento de la EMCS.
“Solicitamos a los pacientes firmar un consentimiento formal y que nos permitan acceder a sus datos. Nos proporcionan sus IDs de redes sociales, como Instagram, TikTok, X o Facebook”, explica Zareei. “Extraemos las publicaciones de hasta dos años y con esos datos alimentamos algoritmos de IA que detectan patrones basados en lo que publican. No le decimos al algoritmo que busque palabras o frases muy específicas, como ‘suicidio’ o ‘quiero hacerme daño’, sino que va a detectar en las interconexiones de palabras estos patrones donde hay cosas ocultas que para un humano son más difíciles de encontrar”.
Además de la información sobre sus redes sociales, los pacientes también participan en una entrevista complementaria donde se les preguntan otros aspectos, como si han sufrido ciberbullying, si hablan de sus emociones en redes sociales o si pertenecen a grupos donde hablen de salud mental.
Si se suelen utilizar emojis, colores o frases encubiertas como “se me acabó la sopa” o frases que aparentemente no tendrían nada que ver, pero que hacen referencia a la ideación suicida.
“En la entrevista sondeamos con los pacientes si hay grupos con un tipo de lenguaje ‘encubierto’ respecto a este tipo de temas. Puede ayudar a identificar, por ejemplo, si en el algoritmo una palabra común, como ‘chocolate’, aparece mucho, la entrevista nos podría decir que en ciertos grupos se utiliza para algún tema de salud mental y ayudaría a complementar o explicar lo que podamos encontrar en el modelo”, explica la investigadora.
Los participantes son en mayoría jóvenes que usan redes sociales
Esta recolección de información inició hace aproximadamente seis meses, explica González, y a la fecha se ha conseguido la participación de más de 40 pacientes diagnosticados. La muestra de personas está conformada por jóvenes mexicanos de entre 15 y 29 años que cuentan con redes sociales y que, principalmente, obtienen un nivel medio-alto en la Escala Columbia, utilizada para medir la gravedad del riesgo suicida.
Para esta tarea el equipo también ha enfrentado varios desafíos, desde recibir la autorización de un comité de ética para llevar a cabo el estudio hasta cambios de especialistas que atienden a los pacientes. Además, ha sido necesario dar capacitación a practicantes y pasantes al capturar información de los pacientes.
En términos de confidencialidad y principios éticos, el Comité Institucional de Ética en Investigación es el que autoriza el proyecto, pero solo por un año. Para renovarlo, los investigadores deben presentar reportes con los avances. Además, el comité se encarga de garantizar la protección de los derechos de los participantes, como privacidad de datos y un manejo seguro de información sensible.
Después de la recolección de datos, el equipo alimentará un algoritmo de procesamiento de lenguaje natural (NLP: Natural Language Processing) que detecte patrones de comportamiento en el texto publicado en las redes sociales, tomando en cuenta no solamente el mensaje que escriben en estas plataformas, sino también variables como la hora o día de la semana de la publicación.
“Nuestro proyecto está en una primera etapa, por ahora no vamos a generar una herramienta, más bien vamos a detectar esos patrones y luego a validarlos. Cuando ya sepamos que sí son patrones válidos, podremos hacer muchas más cosas con eso”, dice Zareei.
Investigación con contexto en México
El investigador agrega que, si bien existen estudios relacionados a este tema, la mayoría son realizados con bases de datos obtenidas de redes, no de pacientes, y en comunidades de jóvenes caucásicos, es decir, en países como Estados Unidos o en Europa. Zareei considera valioso hacer la investigación en español y en el contexto mexicano, debido a que cada cultura puede tener patrones muy específicos.
Además de González y Zareei, en el equipo de Investigación del Tec participan Enrique Alejandro García, del Departamento de Computación de la EIC, y Melina Miaja, del área de Psicología Clínica de la EMCS. El grupo también ha colaborado con profesores de la Universidad de Guadalajara (UDG) y la Universidad de Twente, en Países Bajos, y con doctores del Hospital Psiquiátrico San Juan de Dios.
Este proyecto ha contado en diferentes momentos con apoyo de Microsoft AI for Good, que les dio acceso a servicios en la nube para procesar datos en los estudios previos de IA en salud mental y de la Fundación Gonzalo Río Arronte con un fondo para que el equipo pueda avanzar por un año en el entrenamiento del modelo y obtener resultados preliminares.
En siguientes pasos, el equipo tiene como meta la recolección de datos de alrededor de 300 pacientes para continuar con el entrenamiento del algoritmo y colaborar con otras clínicas. Además, aunque inicialmente el sistema funcionará con el análisis de texto, a futuro, y con los protocolos éticos pertinentes, se espera que con la IA se pueda considerar también audio y video que permita identificar emociones .
“Mucho de lo que conocemos sobre IA aplicada a la salud mental es por estudios que se han hecho en los últimos dos años. Los profesionales de la salud, ingeniería y otras áreas tenemos que meternos en el tema. Es importante decir que el Tec es una de las pocas universidades que hoy está haciendo este tipo de investigación”, comenta González. “Ahorita probablemente hay muchas más preguntas que respuestas, pero eso nos va a abrir el camino a más investigaciones”.
Si requieres orientación sobre ideación suicida u otros problemas de salud mental para ti o un familiar, en México opera la Línea de la Vida 800-911-2000, disponible para ti y para quien lo necesite las 24 horas del día, los 365 días del año.
¿Te interesó esta historia? ¿Quieres publicarla? Contacta a nuestra editora de contenidos para conocer más marianaleonm@tec.mx








