Por Diana Madera, Zoé Caballero y Valeria Ramírez | Ciencia Amateur
Autor revisor Héctor Ceballos
El lenguaje es parte clave de lo que nos hace humanos, es una de las características esenciales de nuestra humanidad. Y justamente por eso, se han impulsado grandes esfuerzos para que las computadoras sean capaces de entendernos, es decir, que no solo aprendan a identificar palabras, sino a comprender el significado detrás de ellas. A esto se le llama Procesamiento de Lenguaje Natural, mejor conocido como NLP (por sus siglas en inglés).
El NLP es una rama de la Inteligencia Artificial que ha dado vida a herramientas cotidianas como Alexa o Siri, a los autocorrectores de texto, a los detectores de spam en correos electrónicos y, recientemente, a modelos avanzados como ChatGPT o Gemini.
En el corazón de los sistemas NLP más avanzados se encuentra el análisis de sentimientos, que se refiere a la capacidad que permite a las máquinas no solo procesar el lenguaje humano, sino también interpretar las emociones que este transmite.
Lo anterior ayuda a crear herramientas capaces de interpretar opiniones o sentimientos en diferentes medios, por ejemplo, redes sociales, en donde se utiliza para filtrar mensajes peligrosos o analizar las opiniones colectivas sobre temas específicos.
Emociones: el reto algorítmico
A pesar de su amplia gama de usos y técnicas, el análisis de sentimientos todavía tiene problemas que se buscan resolver. Un gran ejemplo es la identificación de emociones complejas como la esperanza o el sarcasmo.
La esperanza es complicada, ya que involucra múltiples capas emocionales y puede ser expresada de manera directa (utilizando palabras como “espero” o “deseo”) e indirecta (con frases como “tal vez la situación cambie”).
El sarcasmo, por otro lado, es complejo debido a que juega con el uso literal de las palabras y la verdadera intención del mensaje. Es decir, el uso de palabras positivas pero expresando un sentimiento negativo.
La detección automática de sentimientos como la esperanza o el sarcasmo representa un avance crucial, especialmente en épocas como la que vivimos en pandemia, cuando un simple mensaje podía significar tanto una señal de alerta como un gesto de ánimo para alguien más.
Con el auge de la inteligencia artificial generativa, la exploración de estos modelos para identificar emociones se ha intensificado.
Análisis comparativo
En este contexto, alumnas del Tec de Monterrey llevamos a cabo un análisis en el que comparamos modelos populares de IA generativa como ChatGPT, DeepSeek, Claude y LLama con RoBERTa, enfocándonos en la identificación de dos emociones: esperanza y sarcasmo, en publicaciones de X (antes Twitter) en distintos idiomas.
Este trabajo ha sido aceptado para presentarse en dos de las conferencias internacionales más importantes de Procesamiento de Lenguaje Natural a nivel mundial: RANLP e IBERLEF.
En nuestra investigación encontramos que RoBERTa sigue detectando mejor estas dos emociones en comparación con los demás modelos generativos, algo que llama la atención si consideramos que los modelos más modernos, como ChatGPT, son considerados más avanzados porque no solo entienden el lenguaje, sino que también pueden producirlo de forma fluida y natural.
Esto puede deberse a que los modelos generativos son más dependientes del contexto del mensaje, lo cual dificulta su desempeño en los posts de Twitter que constan de pocos caracteres.
Diferencias entre modelos generativos
En los últimos años, las técnicas de NLP han avanzado notablemente en su capacidad para detectar emociones en los textos. Uno de los modelos más reconocidos es RoBERTa, un modelo entrenado previamente con millones de textos provenientes de libros, artículos, redes sociales y otras fuentes.
Esta formación le permite adaptarse fácilmente a nuevas tareas, incluso con muy poca información adicional. Para entenderlo mejor, podemos imaginar a un chef profesional: aunque nunca haya preparado un platillo específico, su experiencia le permite cocinarlo perfectamente con solo una breve descripción.
Por otro lado, los modelos generativos como ChatGPT llevan este concepto aún más lejos. No solo comprenden el lenguaje, sino que también lo producen, simulando conversaciones humanas con notable fluidez y sensibilidad contextual. En lugar de seguir una receta, son como chefs improvisadores: no solo reconocen los ingredientes, sino que también pueden crear un platillo completamente nuevo según el gusto del comensal.
Modelos como RoBERTa se han convertido en algunos de los más utilizados por la comunidad investigadora en tareas de detección de emociones. Una de sus principales ventajas es que no se limita al inglés, que es el idioma más común en el ámbito de la investigación, sino que también puede adaptarse a otros idiomas.
Esto resulta especialmente relevante en un mundo globalizado, donde las emociones se comunican de maneras distintas según la lengua y la cultura. Utilizar modelos capaces de comprender varios idiomas permite desarrollar herramientas más inclusivas y efectivas para personas de distintos contextos.
Aunque modelos generativos como ChatGPT aún no tengan el mejor desempeño en las tareas de análisis de sentimientos, es importante seguir investigando su comportamiento. En especial por el gran uso que están teniendo en nuestra actualidad.
Explorar esta línea de investigación no solo representa un avance técnico, sino también un compromiso con un futuro más empático. Al perfeccionar la capacidad de las máquinas para reconocer emociones complejas, abrimos la puerta a aplicaciones con un profundo impacto social: desde la detección temprana de problemas de salud mental, hasta la mejora en la calidad del servicio al cliente, la prevención del discurso de odio y la creación de interacciones más humanas entre personas y sistemas inteligentes.
.
Referencias
- Madera-Espíndola, D. P., Caballero-Domínguez, Z., Ramírez-Macías, V. J., Butt, S., & Ceballos, H. (2025). Transformers and Large Language Models for Hope Speech Detection: A Multilingual Approach for PolyHope-M at RANLP 2025. Proceedings of the 16th International Conference on Recent Advances in Natural Language Processing.
- Madera-Espíndola, D. P., Caballero-Domínguez, Z., Ramírez-Macías, V. J., Butt, S., & Ceballos, H. (2025). Hope Speech Detection Using Transformers and Large Language Models: A Bilingual Approach at IberLEF 2025. CEUR Workshop Proceedings.
- Jim, J. R., Talukder, M. A. R., Malakar, P., Kabir, M. M., Nur, K., & Mridha, M. F. (2024). Recent advancements and challenges of NLP-based sentiment analysis: A state-of-the-art review. Natural Language Processing Journal, 6.
.
Autoras
Diana Patricia Madera Espíndola. Estudiante en la Maestría en Ciencias Computacionales del Tec de Monterrey. Asistente de investigación en el Living Lab & Data Hub del Institute for the Future of Education (IFE), del Tecnológico de Monterrey, México. Su labor en el IFE se centra en proyectos relacionados con el Procesamiento de Lenguaje Natural (NLP), el Aprendizaje Automático (ML) y las técnicas de Aprendizaje Profundo.
Zoé Caballero Domínguez. Estudiante de la Maestría en Ciencias de la Computación con especialización en Aprendizaje Automático del Tec de Monterrey.
Valeria Jassive Ramírez Macías. Estudiante en la Maestría en Ciencias Computacionales del Tec de Monterrey.
Este artículo fue supervisado por Héctor Gibrán Ceballos Cancino, director del Living Lab & Data Hub del Institute for the Future of Education (IFE) en el Tecnológico de Monterrey. Profesor de tiempo completo del Programa de Posgrado en Ciencias de la Computación (DCC) y adscrito al Grupo de Investigación con Enfoque Estratégico en Sistemas Inteligentes. Miembro del Sistema Nacional de Investigadores (SNI) y miembro adherente de la Academia Mexicana de Computación (AMEXCOMP).








