En el editor,
“¿Qué enseñamos ahora?” de Ray Schroeder (1 de abril de 2026) hace una pregunta urgente. Pero la columna otorga demasiada autoridad a los sistemas y empresas que más necesitan un escrutinio. Se mueve de OpenAI’s PIBval un punto de referencia para una interpretación generada por Gemini de “la realidad hasta ahora en el 2026” antes de recurrir de nuevo a Gemini para pedir recomendaciones sobre qué deberían enseñar las universidades. Pasar de un punto de referencia del proveedor a un análisis generado por IA y una prescripción curricular no es una investigación crítica. Es una subcontratación epistémica: permitir que los sistemas bajo control narren su propia necesidad.
El problema no es que la columna tome en serio la IA; La educación superior debe tomarse en serio la IA. El problema radica en que confunde la prescripción generada por la máquina con el juicio humano y la aceleración para el destino. Cuando se le pide a Gemini que describa las condiciones actuales y prescriba el currículum, la columna hace más que informar sobre el aumento de la IA; permite que la tecnología argumente por su propia centralidad.
La columna también cita cifras generadas por Gemini sobre el rediseño de puestos de trabajo de la empresa y la tasa de paro sin identificar las fuentes o métodos que hay detrás. La especificidad numérica otorga a estas afirmaciones una autoridad prestada. En el punto donde el argumento más necesita la crítica de la fuente y la transparencia metodológica, se pide a los lectores que acepten las cifras generadas por máquina como pruebas establecidas.
Incluso en los términos propios del punto de referencia, GDPval es más estrecho de lo que permite la columna. Tal y como señala Schroeder, OpenAI presenta a GDPval como un punto de referencia para tareas económicamente significativas, al tiempo que reconoce sus límites y la futura iteración. Un punto de referencia puede informar al debate; no puede determinar qué instituciones deben a los estudiantes, qué mano de obra debe seguir siendo humana o qué pérdidas son aceptables en aras de la eficiencia, sobre todo cuando la columna señala que los daños de la automatización no serán soportados por igual.
La labor de la educación superior no es simplemente producir graduados “a prueba de IA” que puedan orquestar herramientas y verificar los resultados. También debe hacer preguntas humanas más difíciles: ¿qué debería seguir siendo humano? ¿Qué formas de juicio, cuidado, interpretación y confianza no deben optimizarse? La enseñanza no es una simple entrega de contenidos. Escribir no es sólo producción de textos. Asesorar no es encaminar. La biblioteconomía no es la recuperación. Éstos no son complementos marginales; son prácticas a través de las cuales los estudiantes aprenden juicio, responsabilidad y responsabilidad frente a los demás.
Las universidades deberían enseñar a los estudiantes a interrogar la IA, verificar sus afirmaciones y entender sus límites. Pero también deberían reservarse el derecho a limitar o rechazar el uso de la IA cuando el juicio humano forma parte del propio trabajo: asesoramiento, comentarios sobre la redacción de los estudiantes, consulta de investigación y otras formas relacionales de trabajo educativo. La cuestión no es sólo lo que enseñamos ahora, sino también lo que decidimos no automatizar. La educación superior no debe dejar que la IA escriba el argumento de su propia inevitabilidad.
















