El uso de herramientas de inteligencia artificial (IA) —como ChatGPT y Gemini— está presente en espacios que parecían improbables, como los procesos legislativos de la Cámara de Diputados y el Senado. Una investigación reciente encontró que diputados y senadores utilizan cada vez más estas tecnologías sin que exista una regulación clara.
La historia comenzó cuando Sergio Bárcena, profesor investigador de la Escuela de Humanidades y Educación (EHE) del Tec de Monterrey y fundador de Buró Parlamentario, una organización civil que monitorea y analiza el trabajo legislativo, colaboró con el equipo que estará encargado de redactar la Ley de Inteligencia Artificial en el país.
Ahí surgió la pregunta clave: ¿ya se utilizan estos sistemas dentro del Congreso y con qué frecuencia? Para responderla, lo primero que él y su equipo hicieron fue encuestar a los asesores del Congreso de la Ciudad de México, quienes son responsables de una parte importante del trabajo técnico detrás de iniciativas, posicionamientos y discursos.
Tras esto detectaron que el uso ya era común y que crecía con rapidez, sobre todo entre los asesores más jóvenes. Además, identificaron que se concentraba en tareas específicas, como resúmenes de textos e información. “No he hecho estas encuestas en otros congresos, pero tengo la sospecha de que el uso está muy relacionado con la capacidad de la infraestructura”, dice Bárcena.
Paradójicamente, descubrieron que el que exista la IA no les ha aligerado la carga de trabajo, sino que la ha aumentado. Después, dieron una capacitación general al Congreso donde vieron que compartían preocupaciones, como la autoría y el tratamiento de datos sensibles. “Todos sabemos cuáles son los problemas [con la IA], pero aun así estamos dispuestos a ceder a cambio de que nos faciliten un poco la vida”, expresa el investigador.
Cómo detectaron el uso de ChatGPT en discursos legislativos
Esta primera aproximación tenía como limitante depender de que quienes respondieran aceptaran que utilizan este tipo de herramientas, por lo que preguntarles a los propios legisladores no sonaba como la mejor idea.
“Obviamente no te van a decir que sí, porque si tú lo has visto en los medios, pues al legislador que usa ChatGPT, lo linchan en medios”, dice Bárcena.
Ante esta dificultad, el equipo optó por buscar evidencia de IA en los propios discursos parlamentarios.
Para ello, desarrollaron una metodología para analizar discursos de diputados y senadores para buscar lo que llaman “huellas lingüísticas” de los modelos de lenguaje, esto es, patrones del habla típicos de textos generados con estas herramientas.
Estas huellas incluyen:
- Enumeraciones mecánicas: “primero… segundo… tercero…”
- Palabras recurrentes: “claro”, “visión”, “fortalecer”
- Fórmulas de enlace: “se trata de…”
- Estructuras repetidas: “no solo… sino…”
Con esas señales como referencia, el equipo revisó discursos desde 2021, cuando todavía no existía ChatGPT, y el resultado fue consistente con lo que habían encontrado: a partir de la segunda mitad de 2024, particularmente desde septiembre, se observa un aumento significativo en estas huellas. Este patrón sugiere que la utilización de la herramienta en el Congreso no solo existe, sino que ha crecido de forma acelerada en un periodo corto.
“Abarca lo local, como lo federal, entonces ya tenemos indicios para decir: ‘Sí lo están usando, no nos mientan, mejor úsenlo bien’”, enfatiza el experto.
Riesgos del uso no regulado de modelos de lenguaje en el proceso legislativo
“En un inicio pensaba que esto no era ni bueno ni malo, hasta que me di cuenta de que sí hay un riesgo”, dice Bárcena. Para él, es clave que las personas que lo usan en la legislación tengan claro que los LLM (modelos de lenguaje de gran escala) fueron entrenados con datos producidos por personas e instituciones con sesgos culturales e ideológicos.
“Si no sabes que estos modelos pueden generar respuestas distintas según el género que perciben o el tipo de lenguaje que replican, usarlo puede conllevar un riesgo gravísimo”, expresa Bárcena.
Para él, algo tan ingenuo como un resumen puede reflejar sesgos presentes en los datos con los que fue entrenado el modelo, por lo que no hacer un uso consciente puede ser peligroso. Además, es importante que la ciudadanía sepa en qué etapas del proceso legislativo se está utilizando, pues si no, se rompe la confianza en la representación.
México aún no tiene reglas claras sobre IA en el Congreso
Hasta hoy, en México no existe una Ley General de Inteligencia Artificial ni acuerdos o guías claras para utilizarla en las sedes legislativas, por lo que es indispensable dar ese primer paso.
“Hagamos acuerdos y declaremos su uso para que los resultados no sean gobernados por el algoritmo, sino que terminen siendo gobernados por el humano”, expresa el investigador.
La falta de reglas claras contrasta con la rapidez con la que estas herramientas se integran en el trabajo legislativo. El estudio plantea la necesidad de definir en qué etapas del proceso pueden utilizarse y bajo qué condiciones.
“Es imposible dejar de usarla, ya todos vimos los beneficios que nos da”, concluye Bárcena. “Vamos a usarla de manera consciente y estableciendo reglas internas”.
¿Te interesó esta historia? ¿Quieres publicarla? Contacta a nuestra editora de contenidos para conocer más: marianaleonm@tec.mx







