Cada vez más personas se informan a través de redes sociales y plataformas digitales. En estos espacios, la desinformación circula con facilidad y muchas veces se comparte sin verificar. Ante este problema, investigadores del Tecnológico de Monterrey desarrollaron VerifactzGPT, una herramienta de inteligencia artificial (IA) que no solo analiza contenidos, sino que enseña a las personas a detectar información engañosa.
La desinformación está entre los cinco principales riesgos globales en el corto y mediano plazo, según el Informe de Riesgos Globales 2026 del Foro Económico Mundial. Su impacto alcanza ámbitos como la política, la economía, la salud y la educación.
¿Qué es VerifactzGPT y cómo detecta desinformación con IA?
Ante este escenario, María del Carmen Fernández y Ana Laura Maltos, periodistas y profesoras investigadoras de la Escuela de Humanidades y Educación (EHE) del Tecnológico de Monterrey, lideran el desarrollo de VerifactzGPT, una herramienta que aprovecha la IA generativa para evaluar la información publicada en la red y, al mismo tiempo, desarrollar en las personas habilidades de pensamiento crítico para analizar, verificar y contextualizar contenidos digitales antes de creerlos o compartirlos.
“Verifactz es una iniciativa del Observatorio de Medios Digitales de la Escuela de Humanidades y Educación del Tec de Monterrey que inicia en 2024 como una propuesta para monitorear y verificar la información electrónica. Es un agente de IA que plantea un uso pedagógico de la tecnología para fortalecer la alfabetización mediática e informacional de estudiantes universitarios y del público en general”, explica Fernández.
El desarrollo de esta herramienta tiene un origen concreto: nació en el contexto de las elecciones federales de 2024 en México como una red de verificadores conformada por estudiantes del Tec, quienes colaboraban con el Instituto Nacional Electoral (INE) para dar seguimiento, de manera manual, a la información generada durante las campañas.
A partir de esa experiencia, el equipo desarrolló una metodología basada en marcos teóricos y lineamientos internacionales contra la desinformación, entre ellos el de “desorden informativo” de la investigadora Claire Wardle, que clasifica tres tipos de contenido problemático:
Desinformación. Difusión de datos falsos con intención de engañar.
Información errónea. Contenido incorrecto sin intención de daño.
Información maliciosa. Información real usada fuera de contexto para causar daño.
Cómo usa IA para verificar información y detectar desinformación
Hace aproximadamente un año y medio, las investigadoras integraron IA para desarrollar un agente capaz de hacer el análisis de contenidos más preciso y eficiente. Además, para guiar a los usuarios a través de un proceso de validación en el que, paso a paso, se les explica por qué un contenido puede ser engañoso y se les enseña a identificar señales de desinformación en los datos.
La herramienta consiste en un chatbot con el que los usuarios pueden compartir texto, capturas de pantalla de publicaciones en redes sociales, imágenes o enlaces.
A partir de ese contenido, el modelo realiza búsquedas en la web para contrastar la información, se apoya en herramientas como Google Fact Check Tools, consulta plataformas como Verificado MX y propone recursos como la búsqueda inversa de imágenes. Además, aplica una matriz de verificación que evalúa distintos aspectos del contenido. Como resultado, ofrece un grado de fiabilidad, pero también explica al usuario el análisis para que lo entienda de manera clara y sea capaz de replicarlo en otros contenidos.
“La idea es que no sea solamente una herramienta de verificación (que nada más te dice si una noticia es falsa o no); lo pensamos como un asistente de alfabetización mediática porque le va explicando al usuario por qué una información debería revisarse, por qué desconfiar de ella o cómo puede identificar, por ejemplo, publicaciones generadas con IA como fotografías que están detrás de contenidos que pretenden ser más sensacionalistas que informativos”, agrega la investigadora.
La matriz de verificación: cinco claves para detectar desinformación
La matriz de verificación con la que opera VerifactzGPT fue diseñada por el equipo de investigación del Observatorio de Medios Digitales para analizar los contenidos a través de cinco dimensiones:
Fuente. Identifica quién publica el contenido y de dónde proviene. Evalúa si se trata de una fuente confiable, como un medio reconocido, y si se menciona claramente el origen de la información, por ejemplo, un estudio o comunicado oficial.
Hechos. Revisa si el contenido presenta datos verificables y si coincide con lo publicado por otras fuentes. Permite distinguir entre afirmaciones sustentadas y contenidos sin evidencia.
Contexto. Analiza si la información explica qué ocurrió, cuándo y dónde. Ayuda a detectar contenidos reales que se presentan fuera de su contexto original.
Intención. Examina el propósito del mensaje. Identifica si busca informar de manera objetiva o si recurre a juicios, sesgos o enfoques sensacionalistas.
Imagen y video. Evalúa si existen alteraciones o manipulaciones en los contenidos audiovisuales. Considera el uso de recursos como música o encuadres y permite apoyarse en herramientas como la búsqueda inversa de imágenes para verificar su origen.
La matriz permite al agente calcular un porcentaje de fiabilidad a partir de tres criterios aplicados a cada dimensión. Además, ofrece una guía clara para que los usuarios interpreten los resultados. También identifica siete tipos de contenido problemático y los organiza en un espectro según su nivel de daño potencial: desde la sátira o parodia, que puede confundir, y el uso de contexto falso o la suplantación de fuentes, hasta contenidos manipulados o fabricados con intención de engañar.
La herramienta también puede utilizarse con fines de investigación. Con autorización de los usuarios, recopila datos sobre su interacción con la desinformación y permite evaluar su impacto en la alfabetización mediática, es decir, si contribuye a desarrollar habilidades antes y después de su uso.
Limitaciones de la IA en VerifactzGPT
Fernández señala que la herramienta aún está en desarrollo; se encuentra en una fase avanzada de pruebas y ajustes. Aunque ya se puede acceder a ella desde el sitio del observatorio para hacer validaciones, su funcionamiento todavía puede presentar limitaciones propias de la IA, como sesgos o errores en el análisis.
“Por eso desde el saludo el bot te dice: ‘Yo te puedo ayudar, el resultado va a depender de qué tanta información me des’. El GPT depende de un buen prompt. Si las preguntas son vagas, la herramienta puede confundirse. Nos pareció importante poner esas advertencias, de que el resultado será aproximado y que va a depender de la cantidad de información que logre tener”, dice la investigadora. “Pero más allá de lo que diga el chat como sentencia, el objetivo es enseñarle al usuario que puede hacer esta verificación si se fija en esos detalles”.
Qué sigue para VerifactzGPT: mejoras y próximos pasos
Actualmente, las investigadoras trabajan en perfeccionar el modelo para mejorar su precisión a través de pruebas e iteraciones constantes, y esperan tener una versión completa este año. Este proceso ha implicado para ellas el desarrollo de capacidades técnicas en programación, uso de APIs e ingeniería de prompts.
Fernández señala que entre los siguientes pasos del equipo están ampliar las capacidades de procesamiento de contenidos multimedia, optimizar la lectura de enlaces y vínculos provenientes de algunas redes sociales que la limitan y hacer su uso más accesible para distintos públicos. A futuro, buscan convertir VerifactzGPT en una aplicación móvil e incluso integrarla en servicios de mensajería como WhatsApp, para hacerla más accesible en el uso cotidiano.
“Nuestro objetivo es que la gente tenga acceso gratuito y fácil a una herramienta que nos ayude a no caer en la desinformación”, señala Fernández. “Gran parte de la desinformación hoy se genera con IA, pero lo que buscamos es darle la vuelta y utilizarla como un sistema para combatirla”.
En un entorno donde la desinformación crece impulsada por la IA, VerifactzGPT busca invertir la lógica: usar la tecnología no para confundir, sino para formar usuarios más críticos e informados.
¿Te interesó esta historia? ¿Quieres publicarla? Contacta a nuestra editora de contenido para más información: marianaleonm@tec.mx





