Home Educación La mejor defensa contra las trampas de la IA (opinión)

La mejor defensa contra las trampas de la IA (opinión)

14

Si trabaja en el desarrollo del profesorado, probablemente ha sentido la misma preocupación durante el último año: Todos mis estudiantes están haciendo trampas utilizando IA. En la Universidad Estatal de Geogia, nuestro centro de enseñanza y aprendizaje del campus recibe más solicitudes de talleres sobre cómo prevenir la deshonestidad digital que cualquier otro tema. A lo largo del semestre de otoño de 2025, hice una media de un taller, presentación o reunión sobre IA e integridad académica cada cuatro días laborables.

Los profesores universitarios están ansioso, y esto se nota en sus reacciones. Todos hemos leído las historias sobre profesores que vuelven a los libros azules o que optan por la jubilación anticipada para evitar la percibida inundación de textos generados por máquina. A medida que hemos luchado por promover la honestidad académica cuando la inteligencia artificial facilita la deshonestidad, la educación superior se ha retirado en gran medida a dos posturas defensivas: la vigilancia o la súplica.

La estrategia de vigilancia se basa en la detección, una carrera armamentística que ya hemos perdido. Las herramientas de detección de IA son sesgadas, fáciles de eludir y propensas a falsos positivos. Para probarlo, introduje el primer capítulo de mi tesis (escrita en 2006) en un popular detector de IA. Marcó mi trabajo como un 39% de IA generado. No podemos controlar la forma de salir de esto cuando nuestro radar está roto.

La alternativa es lo que yo llamo una estrategia de súplica, esencialmente intentando convencer a los estudiantes para que sean usuarios responsables de IA. Veo que las universidades crean enunciados del plan de estudios y módulos online sobre alfabetización en IA, con la esperanza de que si explicamos la ética con suficiente claridad, los estudiantes lo cumplan. Pero esto pierde completamente el sentido. Por lo general, los estudiantes no hacen trampas porque no tienen fibra moral; hacen trampas porque están navegando por un sistema de incentivos que prioriza la eficiencia por encima del aprendizaje.

Creo que con demasiada frecuencia creamos cursos que castigan lo que requiere el aprendizaje: cometer errores. Cuando evaluamos las curvas de alto nivel, ofrecemos poco feedback y exigimos la perfección en el primer intento, estamos señalando que el producto importa más que el proceso. Al eliminar el espacio para la experimentación segura y la retroalimentación, hemos hecho que la lucha por aprender sea una responsabilidad. En este contexto, los estudiantes recurren a la IA no para evitar el aprendizaje, sino para evitar el riesgo de fracaso en un sistema que no les ofrece ninguna red de seguridad.

El pasado otoño, comí con un compañero que me dijo que abandonaba completamente la enseñanza online. Le encantó la enseñanza online durante la pandemia, pero pensó que el uso generalizado de la IA le había hecho imposible conectarse con los estudiantes y crear experiencias auténticas. Estaba especialmente exasperada para que los estudiantes utilizaran la inteligencia artificial para escribir tareas de debate que pidieran ejemplos personales. “Les pido que compartan un ejemplo de sus propias vidas, y todavía me dan algo que AI escribió”, dijo claramente frustrada.

Pregunté por la estructura de la tarea. Era el formato estándar “publicar una respuesta a esta pregunta y después comentar las publicaciones de dos compañeros”. Esto no es una discusión; está hablando digitalmente en una habitación vacía. En esta situación, no creo que los estudiantes hagan trampas para que no sean éticos o porque no les importa su aprendizaje. Están haciendo trampas porque están aburridos. Están optando por una experiencia que carece de comentarios significativos, colaboración genuina u objetivos de aprendizaje claros.

He llegado a la conclusión de que la cuestión de cómo frenar la deshonestidad activada por el IA en nuestras clases tiene menos que ver con la IA o la honestidad y más que ver con nuestras clases. La facilidad con la que los estudiantes pueden hacer trampas utilizando la IA ha expuesto una verdad incómoda: debemos hacer un mejor trabajo enseñante. No necesitamos probar con inteligencia artificial cada tarea ni abandonar completamente la enseñanza de grandes clases online. Debemos cambiar la forma de diseñar y enseñar nuestras clases para que el difícil trabajo de aprendizaje, no hacer trampas, sea la opción más atractiva. Aquí hay tres formas en las que imagino que podemos hacerlo:

  1. Realizar debates discusiones reales. Retiremos la fórmula “publicar una vez, responder dos veces”. Se ha convertido en el trabajo desempeñado de la era digital. En su lugar, utilice foros online para una interacción real: revisión entre iguales, debate sobre ejemplos aplicados o resolución de problemas de forma colaborativa. Si una actividad online no requiere un movimiento humano genuino, probablemente no es necesario que ocurra en un foro de discusión.
  1. Utilice pedagogías que motiven la honestidad. En a editorial reciente en The New York Timesla psicóloga Angela Duckworth argumentó que la fuerza de voluntad es una narración falsa. Las personas que comen de forma saludable o reducen el uso de las redes sociales no lo hacen por pura determinación; lo hacen estructurando su entorno para que la elección correcta sea la elección fácil. Esto lo podemos adoptar en nuestra enseñanza. Por proyectos de andamios, integrar la retroalimentación basada en procesos y utilizando una calificación basada en el dominio cuando es posible, hacemos que el trabajo sea más gratificante y más fácil que intentar diseñar una indicación para falsificarlo.
  2. Enseña en pequeño, incluso cuando la clase es grande. La conexión humana combate el engaño, y la presión social positiva es un fuerte motivador para hacer lo correcto. Esto es fácil en un seminario pequeño, pero ¿qué ocurre con una clase magistral? La clave es encontrar formas de hacer que los alumnos se sientan vistos y escuchados. En la Universidad de Duke, el profesor Mohamed Noor giró sus grandes conferenciasdividiendo a la clase en pequeños grupos para trabajar problemas mientras circulaba. En mi propio campus de la Universidad Estatal de Georgia, cinco de mis colegas que co-enseñan un curso de matrícula grande crearon equipos de proyecto integrados verticalmente. Estos pequeños equipos ofrecen una forma de que los estudiantes apliquen los conocimientos del curso para resolver los problemas que les preocupan mientras desarrollan relaciones significativas con sus compañeros e instructores. Cuando los estudiantes sienten que sus contribuciones son importantes, es menos probable que pidan a un chatbot que piense por ellos.

Cuando debatimos si es necesario adoptar herramientas de IA o cómo castigar la mala conducta relacionada con la IA, creo que estamos bailando en torno al problema real. Deberíamos aprovechar esta oportunidad para mirar críticamente cómo enseñamos. Cambiar cómo nos hemos acostumbrado a presentar contenido o evaluar el aprendizaje puede parecer desalentador, así que no lo intente hacer solo. Pídale a un compañero de confianza que observe su enseñanza y le ofrezca comentarios honestos sobre dónde sus actividades o tareas no apoyan sus objetivos de aprendizaje. Si su campus tiene un centro de enseñanza y aprendizaje, programa una hora para reunirse con un consultor. Hablando como director del centro, le puedo prometer que si nos lleva una tarea en la que está viendo un uso indebido de la IA, tendremos sugerencias sobre cómo mejorarla.

Muchos profesores ven a la IA como una amenaza, tanto para el aprendizaje de los estudiantes como para la integridad académica. Les preocupa que el aula se está convirtiendo en un campo de batalla por la ética de la IA en lugar de un espacio para el descubrimiento. Pero la respuesta no es una mejor vigilancia. En cambio, debemos centrarnos en crear experiencias de aprendizaje que inspiren a los estudiantes a querer realizar su propio trabajo. La mejor defensa contra un chatbot de IA no es un detector o declaración del programa; es una clase que vale la pena.

Kim Manturuk es la directora ejecutiva del Centro de Excelencia en Enseñanza, Aprendizaje y Educación online de la Universidad Estatal de Georgia.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here