En un mundo donde la inteligencia artificial (IA) avanza a pasos agigantados, las universidades se encuentran en una encrucijada: ¿cómo integrar esta tecnología sin sacrificar los valores fundamentales de la educación? Instituciones académicas de renombre están formando comités para abordar los desafíos que la IA presenta en el ámbito educativo, buscando equilibrar innovación y tradición.
Por ejemplo, el sistema de la Universidad de California tiene como objetivo “reimaginar y mejorar la educación superior para el siglo XXI mediante el uso responsable de la IA”. En Yale, el grupo de trabajo sobre IA anima a sus colegas a liderar proactivamente el desarrollo de esta tecnología. Mientras tanto, la Universidad de Iowa cuenta con cinco comités distintos que prometen gestionar los riesgos y desafíos de la IA, además de preparar a la comunidad académica para los impactos de esta tecnología transformadora.
Sin embargo, la falta de una política universitaria clara ha llevado a que cada departamento desarrolle sus propias directrices. Estos comités debaten sobre la precisión de los detectores de IA y la ética de su uso, especialmente cuando no son completamente precisos. También se discute cómo manejar las apelaciones de los estudiantes acusados de deshonestidad académica y si herramientas como Grammarly deberían considerarse IA prohibida.
En estos comités, se dedica mucho tiempo a compartir experiencias sobre el uso de la IA por parte de los estudiantes. Algunos educadores ven oportunidades en la colaboración entre humanos e IA, especialmente para estudiantes que no tienen el inglés como lengua materna. Otros creen que es necesario que los estudiantes aprendan a usar la IA de manera responsable para estar preparados para el mercado laboral. Se han propuesto nuevas formas de evaluación, como ensayos en video y discusiones en clase, que incluyan un listado de cómo se utilizó la IA.
A pesar de estos esfuerzos, persiste una pregunta fundamental: ¿deberían los estudiantes seguir aprendiendo a escribir ensayos? Algunos argumentan que lo importante es evaluar las ideas y la capacidad creativa, mientras que otros defienden la importancia de la escritura tradicional. La falta de consenso sobre qué habilidades deben preservarse frente al uso de la IA es un desafío significativo.
En un ensayo reciente en el New Yorker, D. Graham Burnett, profesor de historia de la ciencia en Princeton, reflexionó sobre el uso de ChatGPT para comprender material académico complejo. Burnett cuestiona la eficiencia de los libros académicos tradicionales frente a las capacidades de la IA. Esta reflexión resuena en las reuniones de los comités de IA, donde se debate si la IA puede superar a los humanos en la producción de arte, filosofía y escritura.
Aunque algunos dudan de la capacidad creativa de la IA, es innegable que los modelos de lenguaje son cada vez más impresionantes y difíciles de distinguir del trabajo humano. Esto plantea la cuestión de si vale la pena seguir realizando estas actividades de manera tradicional. Además, se cuestiona si el estudio de las humanidades justifica el tiempo y los recursos invertidos en ellas.
En última instancia, los comités de IA en las universidades deben decidir qué habilidades y experiencias formativas están dispuestos a sacrificar por el uso de la IA y cuáles lucharán por preservar. La falta de consenso sobre estas cuestiones es uno de los mayores desafíos que enfrentan. Mientras tanto, la discusión sobre el papel de la IA en la educación superior continúa, con implicaciones significativas para el futuro de las humanidades y la formación de los estudiantes.

