La inteligencia artificial (IA) se ha convertido en un tema de discusión apasionante en el ámbito científico y tecnológico. Algunas personas plantean la preocupación de que esta tecnología pueda llegar a destruir a los seres humanos, mientras que otros destacan su utilidad en diversas industrias como las finanzas, el comercio, la manufactura y la salud, y su enorme potencial para hacer el bien.
Existen voces y organizaciones serias que abogan por desacelerar o incluso detener el desarrollo de la IA, por considerarla un peligro para la humanidad. El 22 de marzo de este año, más de 1,800 personas, entre ellas Elon Musk y Steve Wozniak, firmaron una carta que pedía una pausa de seis meses en algunos tipos de desarrollo de inteligencia artificial, específicamente “sistemas más poderosos que GPT-4”. También, el 29 de mayo, la asociación civil Center for AI Safety emitió un comunicado en el que afirmaba que “mitigar el peligro de extinción causado por la IA debe ser una prioridad global, junto con otros riesgos sociales como las pandemias y las guerras nucleares”. El temor radica en la posibilidad de que un sistema llegue a dominarnos y, eventualmente, eliminarnos.
¿Estamos realmente en un punto de inflexión? ¿La humanidad se encuentra en peligro de extinción debido a la inteligencia artificial?
Vayamos unos pasos atrás… La IA se refiere a la capacidad de las máquinas para percibir, comprender, actuar y aprender mediante el uso de modelos matemáticos, software, hardware y datos para resolver problemas. Además, la empleamos a diario. Las aplicaciones de nuestros teléfonos, los asistentes virtuales, las plataformas de música y video, las redes sociales, los mapas, la traducción de idiomas y el comercio electrónico, todos ellos utilizan indirectamente técnicas de inteligencia artificial. El usuario de estas apps puede no estar consciente de que la está utilizando en su funcionamiento cuando recibe recomendaciones de películas, cuando obtiene la ruta más eficiente para llegar a un lugar o cuando apaga la luz de su casa.
Lo que ha cambiado en los últimos seis meses es que, por primera vez, 150 millones de personas están interactuando directamente con ChatGPT, una aplicación de inteligencia artificial generativa, capaz de crear texto (hay otras, como DALL-E que crean imágenes). Se trata de una red neuronal entrenada con una enorme cantidad de texto proveniente de diferentes fuentes como sitios web, Wikipedia, Reddit y libros digitales. Lo sorprendente de ChatGPT es que el texto que genera da la apariencia de ser producido por un humano, resultando razonable y aparentemente verdadero.
Al preguntarle a ChatGPT qué opina sobre sí mismo, su respuesta es:
“Como soy una versión de ChatGPT, no tengo opinión personal sobre mí mismo. Sin embargo, puedo decirte que los modelos de lenguaje como yo han demostrado ser herramientas poderosas para una amplia variedad de tareas… pero es importante recordar que también tienen limitaciones y pueden generar respuestas incorrectas o poco confiables en ciertas ocasiones. Es fundamental utilizar la tecnología con precaución y siempre verificar la información obtenida a través de fuentes confiables”.
ChatGPT tiene razón. Es excelente para generar ideas iniciales al estilo de una lluvia de ideas y luego el humano debe refinarlas, pero en ocasiones puede ofrecer respuestas incorrectas basadas en información falsa y no confiable. Cuando esto ocurre, algunas personas dicen que ChatGPT “alucina”; esto se debe a su entrenamiento masivo con texto que podría contener xenofobia, discriminación, teorías de conspiración o simplemente datos falsos.
¿Representa ChatGPT un peligro para la humanidad? Claramente no. Como cualquier herramienta, puede ser utilizada para el mal, para engañar o cometer fraude. Sin embargo, sin importar que tan sofisticados sean los modelos de lenguaje, no pueden destruir a la humanidad. Lo que es cierto es que hoy la investigación e ingeniería relacionadas con inteligencia artificial van muy por delante de la regulación y se pueden construir sistemas que resulten engañosos y hasta peligrosos. A modo de ejemplo hipotético, si se creara un sistema para que las personas con problemas de salud mental hablaran con un profesional, pero ese “profesional” fuera ChatGPT, eso no solo sería poco ético, sino peligroso para el usuario, y debería estar prohibido.
Existe un concepto hipotético llamado inteligencia artificial general (AGI, por sus siglas en inglés) que, en teoría, sería un sistema autónomo capaz de superar las capacidades humanas en todos los aspectos y someter y destruir a la humanidad. Sin embargo, es importante destacar que hoy no existe un sistema así, excepto en la ciencia ficción. Además, estamos muy lejos de construirlo, y aún no sabemos cómo hacerlo. Lo que sí sabemos es que la IA Generativa, como ChatGPT, no es el camino hacia la inteligencia artificial general.
No olvidemos que la IA es una herramienta, al igual que un martillo, una calculadora o una hoja de cálculo, y las herramientas pueden ser utilizadas para bien o para mal. La IA es tan poderosa que cuando se usa correctamente, no reemplaza nuestras capacidades, las amplía. Una pausa en investigación y desarrollo de inteligencia artificial solo retrasaría los beneficios sociales y económicos.
En el Tec de Monterrey, nos enfocamos en aplicar la IA para contribuir a solucionar problemas sociales, como la salud, la educación, la violencia de género, la pobreza y el medio ambiente. Ayuda a los médicos a mejorar la salud de sus pacientes, a los profesores a acelerar el aprendizaje de sus alumnos y a los científicos y tomadores de decisiones a abordar grandes problemas que, estos sí, son un peligro para la humanidad, como el cambio climático y el acceso a agua potable.
En conclusión, ¿puede la IA exterminar a los seres humanos? No. Sin embargo, puede ampliar nuestras capacidades y convertirnos en superhumanos.