Home Educación El caso contra la divulgación de datos de IA (opinión)

El caso contra la divulgación de datos de IA (opinión)

40

Solía ​​​​pedir a mis alumnos que proporcionaran declaraciones de divulgación de IA cada vez que utilizaban IA generativa en una tarea. No haré más eso.

Desde el comienzo de nuestro actual momento saturado de IA, me he inclinado por ChatGPT, y no muy lejos, y fui uno de los primeros en adoptar la IA en las clases de composición de mi universidad. Mi adopción temprana de la IA se basó en la necesidad de transparencia y apertura. Los estudiantes tuvieron que revelarme cuándo y cómo usaban la IA. Sigo creyendo firmemente en estos valores, pero ya no creo que la divulgación requerida nos ayude a alcanzarlos.

Él mira. Lo entiendo. El alejamiento de la divulgación de datos de IA es contrario a muchas de las mejores prácticas actuales de la educación superior para el uso responsable de la IA. Pero comencé a cuestionar la sabiduría de la declaración de divulgación en la primavera de 2024, cuando noté un problema. Los estudiantes de mis cursos formativos presentaban trabajos creados con la ayuda de inteligencia artificial, pero no proporcionaban las declaraciones de divulgación requeridas. Estaba confundida y frustrada. Me dije a mí mismo: “Les dejo usar IA; los animo a que la prueben; todo lo que pido es que me digan que están usando IA. Entonces, ¿por qué el silencio?”. Al conversar con colegas de mi departamento que tenían actitudes igualmente indulgentes hacia la IA y los requisitos de divulgación, descubrí que enfrentaban problemas similares. Incluso cuando les decíamos a nuestros estudiantes que usar la IA era algo bueno, los estudiantes todavía no estaban dispuestos a admitirlo.

Lo confieso. Lo confieso. Este es el problema.

Las declaraciones de divulgación obligatoria son muy similares a una confesión o admisión de culpabilidad en la actualidad. Debido a la cultura de la sospecha y la vergüenza que domina a muchos… Discurso de inteligencia artificial Hoy en día, en la educación superior, no puedo culpar a los estudiantes por ser reacios a revelar sus usos. Incluso en un aula con un profesor que permite y fomenta el uso de la IA, los estudiantes no pueden escapar al mensaje más amplio de que el uso de la IA debe ser ilícito y secreto.

Las declaraciones de revelación de IA se convierten en un extraño tipo de confesión performativa: una disculpa al profesor, calificando a los estudiantes honestos como “IA escarlata”, mientras que los estudiantes menos escrupulosos escapan sin ser detectados (o tal vez sospechosopero no fue condenado).

Aunque las declaraciones obligatorias de divulgación de la IA tienen buenas intenciones, nos han salido por la culata. En lugar de promover la transparencia y la honestidad, aumentan el estigma de explorar el uso ético, responsable y creativo de la IA y cambian nuestra pedagogía hacia una mayor vigilancia y sospecha. Sugiero que es más productivo asumir un cierto nivel de uso de la IA como normal y, en respuesta, ajustar nuestros métodos de evaluación y al mismo tiempo normalizar el uso de herramientas de IA en nuestro trabajo.

Los estudios demuestran que la exposición a la IA conlleva riesgos tanto dentro como fuera del aula. Se publicó un estudio En mayo, se informó que cualquier tipo de divulgación (tanto voluntaria como obligatoria) en una amplia gama de contextos conducía a una menor confianza en la persona que usaba la IA (y esto seguía siendo cierto incluso cuando los participantes del estudio tenían conocimiento previo del uso individual de la IA, lo que significa, como escribieron los autores, “el efecto observado se puede atribuir principalmente al acto de divulgación y no al mero hecho de usar la IA”).

último Último artículo Señala la brecha que existe entre los valores de honestidad y equidad cuando se trata de la divulgación obligatoria de la IA: las personas no se sentirán seguras al revelar el uso de la IA si existe una falta subyacente o percibida de confianza y respeto.

Algunos que tienen actitudes desfavorables hacia la IA señalarán estos hallazgos como evidencia de que los estudiantes deberían evitar su uso por completo. Pero esto no me parece realista. El sesgo anti-IA solo impulsará un uso más profundo de la IA por parte de los estudiantes y generará menos oportunidades para un diálogo honesto. También desalienta el tipo de conocimiento de la IA que los empleadores están empezando a adquirir. esperado y requiere.

La divulgación obligatoria de la IA a los estudiantes no conduce a un pensamiento real, sino que es una especie de señal de virtud que desalienta la conversación honesta que deberíamos querer tener con nuestros estudiantes. La coerción sólo genera silencio y secretismo.

La divulgación obligatoria de la IA tampoco hace nada para frenar o reducir las peores características de los artículos de IA mal redactados, incluido un tono vagamente robótico; Excesivo lenguaje de relleno. Sus rasgos distintivos más terribles son las fuentes y citas inventadas.

En lugar de pedir a los estudiantes que nos confiesen sus crímenes de IA a través de declaraciones de divulgación obligatoria, propongo un cambio de perspectiva y un cambio en las tareas. Necesitamos pasar de ver la asistencia estudiantil mediante IA como una excepción especial que justifica la vigilancia reaccionaria a aceptar y normalizar el uso de la IA como una característica ahora común de la educación de nuestros estudiantes.

Este cambio no significa que debamos permitir y aceptar cualquier uso de la IA por parte de los estudiantes. No deberíamos resignarnos a leer inteligencia artificial generada por estudiantes en un intento de evitar el aprendizaje. Cuando nos enfrentamos a un trabajo de investigación mal escrito basado en IA que no se parece en nada al estudiante que lo presentó, la atención no debe centrarse en si el estudiante está utilizando IA sino en por qué no está bien escrito y por qué no cumple con los requisitos de la tarea. Tampoco hace falta decir que las fuentes y citas falsas, independientemente de si son de origen humano o de inteligencia artificial, deben considerarse calumnias y no serán toleradas.

Debemos crear tareas y criterios de evaluación que desalienten los tipos de uso de IA no calificada que eluden el aprendizaje. Tenemos que enseñar a los estudiantes los principios y la ética básicos de la IA. Debemos construir y fomentar entornos de aprendizaje que valoren la transparencia y la honestidad. Pero la verdadera transparencia y honestidad requieren seguridad y confianza antes de que puedan florecer.

Podemos comenzar a construir un entorno de aprendizaje de este tipo trabajando para normalizar el uso de la IA con nuestros estudiantes. Algunas ideas que me vienen a la mente incluyen:

  • Dígales a los estudiantes cuándo y cómo utiliza la IA en su trabajo, incluidos los éxitos y fracasos en el uso de la IA.
  • Proporcione explicaciones claras a los estudiantes sobre cómo puede usar la IA de manera productiva en diferentes puntos de su clase y por qué es posible que no quieran usar la IA en otros puntos. (Danny Liu Formulario de listado es un excelente ejemplo de esta estrategia).
  • Una adición importante es el Diario de uso y reflexión de la IA, que brinda a los estudiantes una oportunidad de bajo riesgo de experimentar con la IA y reflexionar sobre la experiencia.
  • Agregue una oportunidad para que los estudiantes presenten a la clase al menos una cosa interesante, extraña o útil que hayan hecho usando la IA (y tal vez incluso anímelos a compartir sus fallas en la IA también).

El objetivo de estos ejemplos es que invitamos a los estudiantes al momento confuso, emocionante y aterrador en el que todos nos encontramos. Cambia el enfoque de las confesiones forzadas a una invitación acogedora para unirse y compartir su sabiduría, experiencias y conocimientos acumulados mientras todos nos adaptamos a la era de la inteligencia artificial.

Julie McCown es profesora asociada de inglés en la Universidad del Sur de Utah. Está escribiendo un libro sobre cómo adoptar la IA conduce a un aprendizaje más atractivo y significativo para estudiantes y profesores.

Enlace fuente