Home Educación Los estudiantes universitarios están más polarizados que nunca. ¿La IA puede ayudar?

Los estudiantes universitarios están más polarizados que nunca. ¿La IA puede ayudar?

12

Ilustración fotográfica de Justin Morrison/Inside Higher Ed | benoitb, ibenk.88, Kateryna Onyshchuk y Lacheev/iStock/Getty Images | triloks/E+/Getty Images

Durante los últimos años, las instituciones de educación superior han adoptado herramientas emergentes de inteligencia artificial en un esfuerzo por mejorar casi todos los aspectos de la vida del campus, no sólo la enseñanza y el aprendizaje, sino también las admisiones, las redes de antiguos alumnos, la recaudación de fondos y el asesoramiento. Ahora, algunos incluso están experimentando con la capacidad de la IA para avanzar en una de las tendencias más actuales en los campus universitarios: fomentar el diálogo constructivo entre los estudiantes, que están más divididos sobre la política ahora que en cualquier momento de los últimos 40 años.

Esto es en gran parte un reflejo de la polarización política más amplia que ha afectado a la sociedad estadounidense durante la última década, una dinámica que se intensificó en los campus universitarios por las protestas propalestinas que estallaron durante la guerra entre Israel y Hamás. De hecho, la proporción de estudiantes que dijeron sentirse incómodos compartiendo sus opiniones políticas en el campus aumentó del 13% al 33% entre 2015 y 2024.

Para ayudar a superar estas diferencias, las universidades se asocian cada vez más con organizaciones destinadas a promover el diálogo civil como Braver Angels, BridgeUSA, el Instituto para Ciudadanos y Estudiosos y el Constructive Dialogue Institute. Y últimamente, la IA se está convirtiendo en parte de la conversación.

“La mayoría de los programas de diálogo existentes no son escalables”, dijo Mylien Duong, director de impacto de CDI, que se lanzó en el 2017. “El poder de la IA es que puede proporcionar entrenamiento y retroalimentación en tiempo real sin tener que depender del poder humano”.

En los últimos años han surgido una serie de plataformas de diálogo constructivo impulsadas por el IA; CDI está probando un componente habilitado para IA Programa de aprendizaje de perspectivasque utiliza una combinación de conversaciones entre iguales y módulos de aprendizaje online para dotar a los estudiantes de las habilidades que necesitan para tener conversaciones difíciles.

El nuevo chatbot de IA del programa pretende promover esta misión enseñando a los estudiantes a escuchar activamente a una persona con una visión opuesta, expresar sus opiniones sin ponerse a la defensiva ni molestarse y encontrar puntos en común en medio de un desacuerdo fundamental. Un chatbot presenta a los estudiantes un escenario hipotético, que va desde una disputa de compañeros de habitación hasta un acalorado debate sobre el aborto, la inmigración o la guerra en Oriente Medio, y les da comentarios sobre sus respuestas.

“Tener conversaciones difíciles con personas reales en tiempo real puede ser difícil”, dijo Lindsay Hoffman, profesora asociada de comunicación política en la Universidad de Delaware, que está probando la herramienta de IA de CDI con sus estudiantes este semestre. “El componente de IA crea un espacio seguro donde los estudiantes pueden expresar ideas que quizás no se sienten cómodas expresando a otro ser humano”.

Hasta ahora sus alumnos dicen que ha sido muy útil.

“Tienes que practicar sin miedo a envolverte”, escribió un estudiante en una encuesta de comentarios anónima. “El entrenador de prácticas hizo que las lecciones se sintieran interactivas y realistas”, escribió otro. “Dio indicaciones y escenarios claros que me ayudaron a practicar habilidades como la toma de perspectiva, el bucle y hacer preguntas constructivas en lugar de sólo leerlas. También me ayudó a frenar y pensar en cómo responder de una forma más tranquila y respetuosa”.

Sin embargo, la IA tiene límites como herramienta de diálogo constructiva, según un libro blanco CDI publicado a finales del mes pasado. En resumen, cuanta más libertad tiene una herramienta de IA generativa para dar forma a las conversaciones, más arriesgada será.

El documento identificó tres roles que han asumido las herramientas de diálogo constructivo emergentes impulsadas por el IA: además del entrenador, que ayuda a los estudiantes a desarrollar habilidades de diálogo individual, el IA puede actuar como mediador, buscando facilitar conversaciones entre diferencias, o un interlocutor que implica a los estudiantes en desacuerdo.

“En todos estos roles, vemos la mayoría de beneficios y menores riesgos cuando el papel del IA en el diálogo está más restringido y centrado pedagógicamente”, dijo Ryan Carlson, científico investigador del CDI y autor del artículo. Esto significa programar chatbots para dar indicaciones enfocadas y comentarios significativos que empujen a los estudiantes a desarrollar sus habilidades de diálogo, y no sólo les diga qué deben decir.

“Los entrenadores son el camino más prometedor para empezar este proceso de instituciones que empiezan a participar de forma más intencionada con la IA en el campus”, añadió Carlson. “La gran mayoría de los estudiantes ya están utilizando IA sin barrera alguna, y la evidencia sugiere que es esencial que empecemos a invertir más en herramientas basadas en la evidencia creadas por educadores que pueden ayudar a garantizar que los estudiantes experimenten la fricción necesaria para aprender habilidades de diálogo”.

Mediador de IA arriesgado, adversario

Aunque la función de entrenamiento comporta riesgos mínimos, que están mayoritariamente ligados a problemas de diseño e interfaz fáciles de solucionar, el despliegue del IA como mediador o socio de discusión presenta riesgos existenciales más profundos, según el documento.

Cuando se le encarga de mediar una conversación en directo entre dos estudiantes, “el IA se hace responsable de determinar qué cuenta como tema adecuado para el diálogo”, dijo Carlson. Por ejemplo, “Corre el riesgo de hacer equivalencias falsas. La inteligencia artificial podría considerar como equivalente una afirmación bien evidenciada y una que se basa en muy poco apoyo empírico, mientras que un mediador humano formado sería capaz de detectar este problema de inmediato”.

Tampoco está claro hasta qué punto un mediador de IA puede gestionar conversaciones acaloradas o reconocer cuándo se justifica la supervisión humana, añadió. Pero lo más arriesgado de todos estos roles es utilizar la IA como socio de debate; Carlson dijo que el bote a menudo lucha por ofrecer “una representación precisa de alguien que tiene una creencia (opuesta)”. Esto es en parte porque, cómo muestran otras investigacionesla IA es mucho más persuasiva que el ser humano medio, incluso cuando se basa en información falsa o engañosa para elaborar sus argumentos.

“Si la IA es capaz de cambiar de opinión de una forma más poderosa que los humanos y después se despliega a una escala masiva, estamos abriendo una lata de gusanos”, dijo Duong de CDI. “¿Quién puede decir qué está dentro de los límites y qué está fuera de límites, qué es y qué no es una teoría de la conspiración, o qué se basa en la evidencia y qué no? La IA debe apuntar en una dirección específica, y detrás de esa dirección específica hay un conjunto de diseñadores humanos. Concentra mucho poder en el diseño de la IA”.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here