El aprendizaje toma tiempo, paciencia y muchos errores, por lo que el uso indiscriminado de la IA (como ChatGPT) afecta procesos esenciales, aseguró el profesor Dominique Boullier.
Boullier es maestro emérito de sociología en Sciences Po París donde ha visto de primera mano cómo la Inteligencia Artificial (IA) generativa está provocando cambios irreversibles en los sistemas educativos globales.
En su conferencia magistral “De-humanidades digitales en construcción” durante el IFE Conference 2026 organizado por el Institute for the Future of Education (IFE) del Tec de Monterrey, argumentó que el sistema educativo se está acelerando al incorporar la IA generativa que daña el aprendizaje.
“Realmente extraño los tiempos en que teníamos el control”, dijo Boullier al inicio de su presentación. “Ahora no tenemos control de nada. Ese es realmente el núcleo del problema que enfrentamos con los sistemas de IA”.
La IA generativa en la educación no es como una calculadora
Una de las primeras experiencias que Boullier tuvo con la tecnología educativa fue en 1997. Como profesor en la Universidad de Tecnología de Compiègne en Francia, ayudó a crear uno de los primeros títulos digitales del país. En aquella época, recordó Boullier, los educadores estaban a cargo de organizar los sistemas tecnológicos.
No solo requerían que empresas como IBM aceptaran sus requisitos para que estos sistemas fueran realmente útiles para ellos, sino que su equipo incluso llegó a rechazar actualizaciones del software. Su argumento era que los profesores no podían adaptarse a los cambios constantes en sus salones.
Esta era la época en que las instituciones tenían el control de la producción. Ahora estamos lejos de esta realidad, explicó Boullier. Las plataformas de IA que solo están entrando al mercado de manera disruptiva, sino que dejan a los usuarios la tarea de lidiar con las consecuencias.
Una de las consecuencias principales está a la mano de lo que él llama “AI rebelde”, empresas que no se hacen responsables del daño que pueden causar y que muchas veces actúan sin garantizar un producto de calidad.
Por eso, Boullier no está de acuerdo con el argumento de que la IA es solo otra herramienta, como la calculadora. “No tenías que revisar los resultados de una calculadora”, dijo, citando las “alucinaciones” que muchos usuarios ya han llegado a esperar de las plataformas.
Los modelos de lenguaje extenso (LLM, por sus siglas en inglés), argumentó el experto, “son un callejón sin salida”. Estos sistemas generan respuestas que no solo pueden ser incorrectas, sino que carecen de punto de vista y no tienen referencia al mundo real.
“La opinión de alguien en la calle, del influencer, del profesor y de todo se reduce horizontalmente al mismo valor”, argumentó el sociólogo.
Boullier también rechazó la idea de que, mientras más usemos la IA, más control podemos recopilar. En su perspectiva, esta pérdida de control tiene cuatro ejes centrales: no controlamos las reglas, las fuentes, la calidad de datos que utiliza, ni el razonamiento de los sistemas.
La IA no usa el razonamiento común de los humanos. Simplemente, agregó Boullier, realiza predicciones estadísticas de las siguientes palabras. Tampoco sabe cómo distinguir entre fuentes o datos de calidad y otros que no hayan sido verificados por expertos. La información que utiliza “solo es válida a través del volumen. Es fuerza bruta, que es el nivel más básico de la tecnología”.
Hacia una supervivencia educativa
Un fenómeno particularmente preocupante es lo que el experto llamó “colapso del modelo”: cuando la IA aprende de sus propias producciones y genera respuestas cada vez más derivadas de su propia lógica. “La IA se está volviendo autofágica. Se está comiendo a sí misma”, declaró.
Boullier no espera que se rechace completamente la tecnología, pero sí que los sistemas educativos busquen maneras de recuperar el control y la responsabilidad. Propone tres estrategias clave:
- Reevaluar explícitamente los problemas educativos específicos antes de adoptar cualquier solución tecnológica.
- Establecer y hacer cumplir convenciones explícitas en cada institución, involucrando a todos los actores en una discusión sobre valores y principios.
- Crear bases de conocimiento verificadas dentro de las instituciones, en lugar de depender ciegamente de sistemas externos.
Más que nada, Boullier espera que las universidades reduzcan el ritmo de adopción en este momento crítico y que no se dejen llevar por el miedo a quedarse atrás.
Para cerrar, dio una última advertencia: si no recuperan el control, los sistemas educativos corren el riesgo de formar generaciones que hayan desaprendido las capacidades cognitivas fundamentales que definen el pensamiento crítico y el aprendizaje profundo.
¿Te interesó esta historia? ¿Quieres publicarla? Contacta a nuestra editora de contenidos para conocer más marianaleonm@tec.mx











