Es posible que los estudiantes con altos ingresos tengan menos probabilidades de utilizar la IA en sus ensayos universitarios porque tienen más acceso a otros soportes para la escritura.
Ilustración fotográfica de Justin Morrison/Inside Higher Ed | Gazanfer e InspirationGP/iStock/Getty Images
Las oficinas de admisión llevan más de tres años y medio luchando con ensayos generados por la inteligencia artificial; segundos a Encuesta 2024aproximadamente la mitad de los candidatos a la universidad utilizan IA para realizar una lluvia de ideas sobre su ensayo universitario y uno de cada cinco lo utiliza para crear un primer borrador.
En estudio reciente Los investigadores de las Universidades de Cornell y Carnegie Mellon profundizaron en qué estudiantes utilizan la IA en sus ensayos y cómo afecta el contenido y la eficacia de estos ensayos.
El estudio analizó decenas de miles de ensayos enviados a una institución selectiva sin nombre durante cuatro años, empezando antes de la introducción de herramientas de IA generativa. Los investigadores encontraron que los estudiantes con menores ingresos, representados en este estudio por aquellos que recibieron una exención de tarifa de solicitud, eran más propensos a utilizar IA en sus ensayos, al igual que los estudiantes que finalmente fueron rechazados de la universidad.
Jinsook Lee, autor principal del estudio y doctorado. candidata a Cornell, dijo que se ha interesado en las variaciones de quien utiliza la IA y cómo se correlaciona con las diferencias socioeconómicas.
Había planteado la hipótesis de que los solicitantes con menores ingresos serían más propensos a utilizar grandes modelos lingüísticos para ayudar con sus ensayos universitarios porque tienen menos acceso a otros recursos para obtener ayuda. Incluso entre la cohorte de estudiantes que habían utilizado IA, los estudiantes con menores ingresos tenían más probabilidades de ser rechazados que los estudiantes con mayores ingresos, encontraron los investigadores. Esto puede ser porque los estudiantes con mayores ingresos pueden permitir mejores versiones de herramientas de IA y pueden estar trabajando con asesores o entrenadores de ensayos que entiendan cómo utilizar la IA de manera más eficaz, dijo.
“Los estudiantes con ingresos altos tienen muchos recursos diferentes; tienen asesores, tienen profesores, tienen más apoyo además de ChatGPT”, dijo Lee. Por otra parte, los estudiantes con ingresos más bajos “sólo podrían utilizar el nivel gratuito en lugar de los 200 dólares al mes (versión de) Claude, y la calidad del resultado de lo que nos ofrece ChatGPT de nivel gratuito es realmente pobre”.
Ensayos personales impersonales
El estudio también evaluó la homogeneización del lenguaje en los ensayos, o la semejanza entre ellos. Lee y sus coautores encontraron que la homogeneización aumentó significativamente después del lanzamiento de las plataformas de IA, con la mayor convergencia entre los estudiantes de bajos ingresos y los que fueron rechazados de la universidad.
Aunque este informe no investigó exactamente qué características lingüísticas se han vuelto más habituales en los ensayos universitarios en la era del IA, AJ Alvero, profesor del departamento de sociología de Cornell y coautor del documento, dijo preocupar pensar que los ensayos de admisión son cada vez menos personales.
“El ensayo está diseñado para ofrecer a los solicitantes la oportunidad de destacar… las idiosincrasias de su vida, como se convirtieron en quiénes son, este tipo de experiencias y narrativas altamente individualistas”, dijo. “Si está empujando a todos estos solicitantes hacia el mismo tipo de ensayo, la misma plantilla… puede que los estudiantes estén perdiendo esta oportunidad sin querer”.
Investigaciones anteriores, también de Cornell, han demostrado que los ensayos de aplicaciones escritos por IA son genéricos, fáciles de detectar y no suenan como la escritura de una persona real.
La conclusión del nuevo informe argumenta que, a medida que el uso de la IA resulta cada vez más frecuente, las oficinas de admisión en las universidades deberían tener en cuenta las disparidades de riqueza a la hora de evaluar los ensayos.
“Vistas a través del marco de la brecha digital, nuestros resultados sugieren un cambio de las desigualdades en el acceso a las desigualdades en los rendimientos, subrayando la necesidad de que las instituciones reevalúen cómo se interpreta la evidencia basada en ensayos a medida que la escritura asistida por IA es habitual”, escribieron. “La investigación futura debería combinar enfoques experimentales, cualitativos y multiinstitucionales para identificar cómo las herramientas de IA interactúan con los sistemas existentes de estratificación educativa y para informar a prácticas de evaluación más equitativas”.
En futuras investigaciones, dijeron Alvero y Lee, esperan investigar qué opciones lingüísticas y temáticas son más comunes en los ensayos de admisión en la universidad generados por IA. Alvero señaló que las características lingüísticas más habituales en los ensayos de los estudiantes con mayores ingresos son también las que parece imitar el IA. Lee, por su parte, observó que los LLM suelen querer incluir información irrelevante sobre la identidad de un estudiante, como abrir una frase sobre el ensayo de un solicitante que se identifica como asiático con “como mujer asiática”, aunque la siguiente cláusula no tenga nada que ver con ser una mujer asiática.

















