Fraudes, desinformación, estudiantes desmotivados y hasta un futuro distópico es lo que muchas personas creen que traerá el uso de la Inteligencia Artificial. Para evitar tales escenarios es importante fomentar el correcto uso de la IA, pero también alfabetizar y empoderar a toda la sociedad −no solo a grupos privilegiados− con el fin de que esta herramienta traiga bienestar a la humanidad.
Durante el IFE Conference 2025, celebrado por el Institute for the Future of Education (IFE), tres profesoras y especialistas en temas de IA para la Educación, compartieron sus reflexiones sobre los beneficios de usar esta herramienta, pero también sobre las amenazas y las limitaciones que se debe tener al momento de usarla.
El panel Orientando la IA para el bien común: educación, práctica profesional y ética estuvo integrado por Yoemy Waller, CEO de Healthcare IT, empresa que se especializa en IA para la salud; Vivian Kretzschmar, investigadora doctoral en Louisiana State University, donde aborda temas de IA para el bienestar, y Claudia Camacho, profesora investigadora del IFE.
Tomar el riesgo (y perder el miedo)
Al abrir el debate, Claudia Camacho mencionó películas de ciencia ficción que han generado temor colectivo, como Matrix o Terminator, cintas donde la humanidad es superada por una Inteligencia Artificial destructiva. O Wall-E, donde la gente se convierten en couch potatoes, personas sin actividad física que pasan toda su vida frente a una pantalla.

En ese sentido, Vivian Kretzschmar recordó que la humanidad siempre ha tenido miedo a cada nueva tecnología, y eso no significa que no podamos beneficiarnos de ella. “Miremos el siglo pasado: la radio, la gente tenía miedo de ella; el cine, la gente tenía miedo; los teléfonos móviles, miedo; las redes sociales, supermiedo, pero siguen siendo muy útiles, ¿verdad?”
“Solo necesitamos un ajuste. Y sobre todo, orientación. Necesitamos ser alfabetizados sobre cómo usar la IA correctamente, porque si no la usamos, nos quedaremos atrás. No hay forma de controlarlo. Yo diría que es una libertad de elección y debemos ser inteligentes al respecto. Debemos saber que estamos tomando un riesgo pero debemos asumirlo, no hay forma de evitarlo, como con todas las tecnologías en la vida”.
¿Enfoque restrictivo o permisivo?
En los últimos tres años la IA ha irrumpido como un torbellino imparable, transformando muchos procesos y tareas. La preocupación sobre su uso es palpable, tanto que al principio algunas reacciones fueron prohibitivas. Claudia Camacho mencionó el caso de Italia, que prohibió el uso de ChatGPT, pero al mes siguiente levantó el bloqueo porque fue imposible aplicarlo.
Para Yoemy Waller, ante los riesgos en la salud, ninguna de estas tecnologías debería ser prohibida o evitada, porque generalmente los beneficios son mucho mejores que los riesgos.
“Prefiero tener un médico que use la tecnología y la IA, que aprenda, entienda e intente descubrir mi condición para hacerme un diagnóstico y resolver cosas, que un doctor que esté mirando un libro de los años 50, que tal vez no tenga lo último en conocimiento. ¿Quién estará mejor preparado para ayudarme a estar saludable?”, cuestionó.
“Tenemos que abrazar la IA en todas las áreas y permitir que la gente experimente, entienda cómo funciona, descubra cosas, en lugar de simplemente prohibirla, porque estaríamos haciendo un daño a los estudiantes y a la humanidad al final de la historia, pues la única manera en que podemos prosperar es avanzando con la tecnología”, dijo.
Para Vivian Kretzschmar, debe haber distinciones claras sobre cómo implementar y usar la IA en las aulas.
“La podemos usar de forma permisiva, moderada o muy restrictiva. Un enfoque permisivo sería usarla libremente para generar ideas, corregir y generar contenido, lo cual tiene sus riesgos y beneficios. Pero debemos optar por un enfoque moderado: permitir que los estudiantes usen la IA como un punto de referencia para generar ideas, pero la conclusiones de un trabajo y el cómo llegan a ellas debería ser su propio trabajo original, producto de su comprensión”.
Dio un ejemplo personal de su uso: como estudiante doctoral debía leer un libro por semana durante todo un semestre, más la literatura secundaria. Eran libros de hasta 400 páginas en un segundo idioma.
“Naturalmente, al leer en otro idioma soy mucho más lenta, pero la IA me ayudó mucho a comprender esos libros. Por ejemplo, uno ellos fue la autobiografía de Benjamin Franklin. ¿Cómo podría entender el lenguaje de Benjamin Franklin, que es inglés del siglo XVIII? Probablemente no en una primera leída”.

Ver el lado positivo y cerrar brechas
¿Existen amenazas inherentes de que la IA forme estudiantes desinteresados? La respuesta de las panelistas fue que, sí, incluso existe el riesgo de perder la capacidad de pensamiento crítico. Sin embargo, si se utiliza de forma responsable la IA puede hacer mucho bien. Por ello es necesario enfocarse en sus aspectos positivos.
Para Vivian, la IA permite hacer algunas funciones mucho más eficientes y rápidas, centrarse en los temas que realmente importan, y puede mejorar el progreso diario, haciendo más eficientes a académicos, investigadores y estudiantes ya que les brinda acceso equitativo a oportunidades educativas.
“Si usamos la IA de una manera positiva, puede ser una herramienta que brinde acceso igualitario a la educación para todas las personas, sin importar la procedencia, el nivel socioeconómico, la cultura, el género, o el origen migratorio. Considero que la IA es un paso significativo para reducir esa brecha. Ya no importa de dónde venimos, pero sí importa a dónde vamos”.

Una herramienta a prueba y error
La IA es una herramienta poderosa, capaz de transformar el mundo de formas inimaginables. Pero como toda herramienta, su uso depende de la voluntad y la visión de quien la maneja.
Yoemy Waller comentó que todas las nuevas tecnologías siempre tienen un proceso de prueba y error, incluso «a veces tienes que dar dos pasos hacia atrás para dar uno hacia adelante. Así es como funciona. No deberíamos tener miedo de cometer errores. Todos nosotros los usuarios estamos descubriendo estas tecnologías tanto como las personas que las desarrollan».
“Nuestro propósito como educadores y líderes es definir cómo queremos utilizarla. ¿Será un instrumento para empoderar a toda la sociedad, para llevar bienestar a cada rincón del planeta? ¿O se convertirá en un privilegio de unos pocos, exacerbando las desigualdades y la injusticia?”
“Como educadores podamos decidir o al menos proponer cómo se puede usar y aplicar la IA para empoderarnos a todos, a toda la sociedad, no solo a un cierto grupo de personas que ya están acomodadas, sino para que realmente nos empodere y traiga bienestar a toda la sociedad. Podemos lograr que la inteligencia artificial sea una fuerza para el bien, un catalizador de progreso y bienestar para toda la humanidad”, agregó.
Claudia Camacho mencionó que en ese sentido, el IFE ha estudiado el mejor camino para minimizar los riesgos y maximizar los beneficios de implementar la IA en las universidades, específicamente en los países en desarrollo.
Hay mucho por hacer
Para las tres docentes, aún hay mucho trabajo por hacer, en especial en el ámbito de la ética, la cual es fundamental en el desarrollo de la IA y, por ello, exhortaron a que se sigan creando e implementando normas relacionadas con la privacidad de la información personal.
Pero también está la parte de no hacer daño. “Por ejemplo, en el ámbito de la salud, no se debe desarrollar una tecnología que cause daño a los pacientes o que les pueda crear un riesgo mayor que el que ya tienen”, mencionó Waller.
Luego hay otras cuestiones éticas, como evitar los sesgos de información que tienen algunos modelos o bases de datos. Para Waller, esto es algo importante en temas de salud, especialmente en EU, porque los datos están mayormente orientados a estadounidenses blancos, sin representación de latinos, que aunque hay muchos, no se recogen esos datos. Entonces, esos modelos pueden estar sesgados, por ello los desarrolladores deben prestar atención para asegurarse de que están siendo éticos y considerando la diversidad de las personas.
“La parte de la ética, es algo que la IA debe abrazar y que nosotros debemos promover porque las regulaciones no son suficientes, así que debemos fomentar en cada ciudadano esta conciencia de los beneficios y riesgos de la IA. Pero al final, todo esto será posible solamente si hacemos colaboración, considero que el trabajo en equipo es el camino correcto para la IA, y es el camino hacia el bien de toda la humanidad”, concluyó Camacho.
¿Te interesó esta historia? ¿Quieres publicarla? Contacta a nuestra editora de contenidos para conocer más marianaleonm@tec.mx