Home Educación 5 mitos del IA y por qué debemos pasarnos (opinión)

5 mitos del IA y por qué debemos pasarnos (opinión)

15

Estamos listos para un conjunto emocionante de conversaciones sobre IA y educación superior. Queremos hablar con el profesorado de qué La idea de “cointeligencia” de Ethan Mollick significa en la práctica en el aula. Debemos implicar a los empresarios de nuestros graduados para rediseñar el plan de estudios. Incluso estamos preparados para conversaciones difíciles como lo que ocurre cuando un profesor quiere que una clase utilice la IA, pero algunos estudiantes tienen reparos éticos.

Estas conversaciones se están produciendo entre la clase influencer de escritores y pensadores de IA, pero no tanto en el trabajo diario con el profesorado. El año pasado, nos hemos dado cuenta de que hay un conjunto de conversaciones e intervenciones que debemos ir más allá si queremos llegar a lo bueno.

La era de la inteligencia artificial en la educación superior parece demasiado nueva para que se pueda invadir de mitos y consejos obsoletos, pero aquí estamos. Los blogs populares destacan trucos arcaicos para detectar la escritura de IA, y los sitios web de enseñanza y aprendizaje recomiendan tácticas que no han funcionado durante más de un año. Hay que perdonar parte de esto: nunca hemos visto que una tecnología se moviera tan rápido, por lo que la adaptación está en curso en lugar de un evento puntual.

Como profesores que están profundamente invertidos en entender el bien y el malo de la IA en las aulas modernas, nuestro objetivo aquí es discutir algunos de los mitos más destacados y tercos que persisten en las conversaciones sobre la IA y la enseñanza y el aprendizaje.

Lo sé cuando lo veo

Las guías para detectar el trabajo producido con IA continúan existir y ser publicado en las páginas web de colegios y universidades. Publicaciones tecnológicas y periodistas seguir publicando consejos sobre esto también. Casey Newton de Plataforma y Horquilla dura recientemente dicho escritura de IA“Siempre puedo decirlo.”

Esto empíricamente es falso. Estudiar después estudiar confirma que los humanos son increíblemente malos para detectar la escritura de IA: es más el caso que podemos detectar personas que son malos para utilizar la IA. Tenga en cuenta algunos de los consejos habituales en estas guías, tales como que la abundancia de guiones o viñetas indica una posible implicación de la IA. Es posible que encuentre estudiantes utilizando muchos guiones me y en la conversación descubre que han utilizado IA. Sin embargo, esto es sólo un sesgo de selección, ya que nunca supo de los otros estudiantes que también lo utilizaban pero que no identificó. Detectar el uso no autorizado de la IA se convierte finalmente en un proceso basado en vibraciones que necesariamente introduce el sesgo de los instructores en otro aspecto de la enseñanza.

La IA no puede hacer reflexión personal

Este fue un componente clave de un artículo popular en El Atlántico del otoño en el que el autor, el lingüista John McWhorter, planteó: “También he encontrado formas de plantear preguntas que superan lo que la IA puede responder, como pedir una visión personal… que se basa en el material discutido en clase”. Esta creencia de que pedir una reflexión personal es una forma de prueba de IA notablemente generalizadaincluso en centros por webs de enseñanza y aprendizaje.

Pero esto es sólo una indicación básica. Supongamos que asignas una reflexión personal que pide a los alumnos que piensen críticamente sobre cómo se modelan las desigualdades sociales (raza, género, clase) en su vida cotidiana. El estudiante A podría copiar las instrucciones de la tarea en un LLM y escribirle: “Realiza esta tarea por mí”. El estudiante B copia las instrucciones, pero en este caso el estudiante añade datos personales sobre sí mismo, tales como raza y etnia, ingresos, edad, lugar de residencia, etc. Le recomendamos que todo el mundo lo pruebe por sí mismo con sus propias tareas. Incluso los hay sitios web que permiten a los usuarios “humanizar” su texto generado por la inteligencia artificial, lo que significa que puede que ni siquiera tenga que ser bueno para pedirlo.

El truco del calendario

Las versiones de ChatGPT de 2023 se formaron con datos sólo hasta 2021. Así, táctica popular desde el principio fue hacer preguntas sobre eventos actuales a los que los sistemas no tenían acceso. Esto de alguna forma ha persistido como enfoque. Es algo que ambos hemos encontrado trabajando con el profesorado, e incluso aparece de forma modificada en algunas guías, como ésta. de la Universidad Estatal de Montclair que recomienda conectar las tareas con “acontecimientos muy recientes”, ya que éste es el contexto que “la IA no tendrá”.

Obviamente, este consejo ya no es viable, puesto que algunos modelos como Grok y Llama están totalmente integrados en las redes sociales en tiempo real y otros proveedores están en negociaciones con los medios de comunicación para tener resultados informados de las noticias de última hora.

Caballo de Troya

En 2024, un profesor se hizo viral con la estrategia de incrustar instrucciones ocultas en un mensaje de ensayo utilizando una fuente pequeña y blanca. La idea es que el estudiante copiará y pegará sin querer toda la guía de tareas en la plataforma de IA, que leerá el mensaje escondido. La salida resultante incorporará algo que el instructor pidió, como incorporar referencias a una película oa un teórico no tratado en clase. Por supuesto, esto también funcionaría con indicaciones STEM y daría lugar a piezas de código erratas o componentes de una prueba que no son necesarios.

En el mejor de los casos, esto es la enseñanza “gotcha”, donde los instructores pasan de profesores a bromistas. ¿Es éste el papel que queremos jugar? Si su objetivo es atrapar a los estudiantes en el hecho, no está empezando desde un lugar de buena pedagogía. Éste también es un enfoque poco fiable con una vida útil limitada. El caballo de Troya es básicamente una variación de un ataque de inyección rápida, que es un problema de seguridad conocido para los LLM que los ingenieros intentan resolver activamente. El mayor riesgo es que si un instructor se basa en ello como táctica, inmediatamente absuelve a todos los que superan su “prueba”. Incluso si el truco funciona, no está detectando a todos los estudiantes que utilizan las herramientas: sólo detecta estudiantes que no las utilizan.

Claude no está en nuestra aula

Algunas universidades recomendar ligar las tareas estrechamente a las discusiones en el aula. A diferencia de los otros enfoques, éste se fundamenta en una buena pedagogía. Este tipo de enfoque tejido de la instrucción es absolutamente una buena práctica, pero no es una forma eficaz de disuadir el uso de grandes modelos lingüísticos.

Un estudiante simplemente puede añadir el contexto de la discusión en el aula en el indicador y la salida resultante la incorporará. Sin embargo, creemos que existe un mérito aquí, en la medida en que lo consideramos una buena práctica para enseñar a los estudiantes a enseñar bien.


Intentar que los estudiantes no utilicen estas herramientas parece ser una batalla perdida, y ni siquiera estamos convencidos de que valga la pena luchar. Ni siquiera hablamos de la necesidad de trabajar con estas herramientas para preparar a los estudiantes para un mercado laboral competitivo donde los empresarios esperan cada vez más la alfabetización de la IA y el uso de herramientas. El objetivo de esta pieza era simplemente despejar una serie de ideas erróneas y la persistencia de consejos obsoletos.

Reconocemos que las personas se encuentran en diferentes lugares con IA en función de las cuestiones éticas que tengan y de cuánto hayan utilizado las herramientas. Existen muchas preguntas sin resolver sobre la sostenibilidad, la pérdida de aprendizaje, la creatividad humana y el trabajo. Estamos listos para tener más de estas conversaciones. Preferimos tener menos casos en los que debamos dar la noticia a uno de nuestros compañeros que el “truco único” que aprendieron de TikTok hace dos años ya no funciona.

Zach Justus es director de desarrollo del profesorado y profesor de artes y ciencias de la comunicación en la Universidad Estatal de California, Chico.

Nik Janos es profesor de sociología en la Universidad Estatal de California, Chico.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here