Casi la mitad de quienes trabajan en la educación superior sienten una mezcla de cautela y entusiasmo acerca de la inteligencia artificial.
Ilustración fotográfica de Justin Morrison/Inside Higher Education | Hozon y PhonlamaiPhoto/iStock/Getty Images | skyshare/e+/Getty Images
Nuevos datos muestran que, si bien el 94% de los trabajadores de la educación superior utilizan herramientas de IA, solo el 54% conoce las políticas y directrices para el uso de la IA en sus instituciones. Incluso cuando los colegios y universidades tienen políticas transparentes, solo alrededor de la mitad de los empleados se sienten seguros al usar herramientas de inteligencia artificial en el trabajo.
“(Esta desconexión) puede tener implicaciones para cosas como la privacidad de los datos, la seguridad y otras cuestiones de gobernanza de datos que protegen a la organización y a los usuarios de los datos”, dice Jenny Robert, investigadora principal de Educause y autora de El impacto de la inteligencia artificial en el trabajo en la educación superior“Alí dijo Mensaje de vídeo grabado Sobre el informe. Educause publicó los hallazgos el lunes en asociación con la Asociación Nacional de Funcionarios Empresariales de Colegios y Universidades, la Asociación Profesional de Recursos Humanos de Colegios y Universidades y la Sociedad de Investigación Institucional.
En otoño, casi tres años después de que las herramientas de IA generativa se generalizaran y algunas instituciones de educación superior comenzaran a asociarse con empresas de tecnología, los investigadores encuestaron a 1.960 empleados, administradores y profesores de más de 1.800 instituciones públicas y privadas sobre la relación de la IA con su trabajo. El noventa y dos por ciento de los encuestados dijeron que sus organizaciones tienen una estrategia de IA relacionada con el negocio, que incluye poner a prueba herramientas de IA, evaluar oportunidades y riesgos y fomentar el uso de herramientas de IA. Si bien la gran mayoría de los encuestados (89 %) dijeron que no están obligados a utilizar herramientas de IA en el trabajo, el 86 % dijo que quieren o seguirán utilizando herramientas de IA en el futuro.
Pero el informe también revela preocupaciones sobre la integración de la IA en el lugar de trabajo en los campus universitarios y muestra que no todos los trabajadores están en sintonía con respecto a qué herramientas implementar y cómo implementarlas.
Por ejemplo, el 56% de los encuestados informaron que utilizan herramientas de inteligencia artificial que su organización no proporciona para tareas relacionadas con el trabajo. Además, el 38% de los líderes ejecutivos, el 43% de los gerentes, el 35% de los profesionales de tecnología y el 30% de los profesionales de ciberseguridad y privacidad informan que no conocen las políticas diseñadas para guiar el uso de las herramientas de IA en relación con su trabajo.
“Dado que los líderes organizacionales y los profesionales de TI son los dos grupos de partes interesadas con mayor probabilidad de tener autoridad para tomar decisiones con respecto a las políticas/directrices de IA relacionadas con el negocio, los datos sugieren que muchas organizaciones pueden simplemente carecer de políticas/directrices formales, en lugar de indicar una comunicación inadecuada en torno a las políticas”, escribió Robert en un correo electrónico a . Dentro de la educación superior.
Incluso si conocen las políticas para el uso de la IA, la mayoría de los empleados todavía no saben si temerla o adoptarla.
La mayoría de los participantes (81 por ciento) expresaron al menos cierto entusiasmo por la IA, el 33 por ciento informó estar “muy/muy entusiasmado” y el 48 por ciento informó una combinación de “cauteloso y entusiasmado”. Mientras tanto, el 17% dijo ser “muy cauteloso” al respecto.
La encuesta arrojó un desglose similar de las respuestas a las preguntas sobre las impresiones de las actitudes de los líderes organizacionales hacia la IA: el 38% dijo que cree que sus líderes son “entusiasmados/muy entusiastas”; El 15% dijo que eran “cautelosos/muy cautelosos” al respecto, y el 36% dijo que sus líderes expresaron una mezcla de “cautela y entusiasmo”.
Pero Kevin McClure, presidente del Departamento de Liderazgo Educativo de la Universidad de Carolina del Norte en Wilmington, así lo afirmó. Dentro de la educación superior Adoptar la IA puede ser perverso. Esto se debe a que sólo el 12% de los participantes en la encuesta eran miembros del cuerpo docente, mientras que el resto ocupaba puestos de personal, administrativos o ejecutivos.
“Esta encuesta también fue enviada a investigadores institucionales y personas vinculadas a recursos humanos”, dijo. “Estas personas trabajan en tecnología, procesando formularios, analizando datos de trámites y proporcionando informes”.
McClure añadió que formular las preguntas del informe en torno a los niveles de precaución y entusiasmo de los trabajadores puede haber contribuido al mayor entusiasmo sobre la IA contenido en el informe.
Muchas personas dijeron que compartían una mezcla de cautela y entusiasmo “porque era una opción”. “Para mí, es como si la gente lo sintiera: pueden ver casos de uso de la IA, pero también tienen preocupaciones. Eso se elimina combinándolo con entusiasmo”.
Riesgos y recompensas
Sin embargo, esta mezcla de cautela y entusiasmo surge de los riesgos y beneficios asociados con la IA entre quienes trabajan en la educación superior.
El 67% de los encuestados identificó seis o más riesgos “urgentes” asociados con la IA, incluido el aumento de la desinformación, el uso de datos sin consentimiento, la pérdida de habilidades esenciales que requieren pensamiento independiente, el uso de la IA por parte de los estudiantes más allá de las habilidades de IA del profesorado y el personal, y la pérdida de empleo. Algunas de estas preocupaciones son consistentes con los hallazgos Dentro de la educación superiorEncuestas a rectores y directores de tecnología, que encontraron que la mayoría de ambos grupos cree que la IA representa un riesgo moderado o grave para la integridad académica.
“Más importante que los riesgos específicos que la gente menciona es la cantidad de riesgos que citan”, dijo el autor del informe, Robert. “Esto realmente subraya la sensación que todos tenemos con la IA cuando se trata de sentirnos abrumados, de que en realidad hay demasiadas cosas de las que ocuparnos”.
Mientras tanto, el 67% de los encuestados de Educause identificaron cinco o más oportunidades relacionadas con la IA como “más prometedoras”, incluida la automatización de procesos repetitivos, la eliminación de cargas administrativas y tareas mundanas y el análisis de grandes conjuntos de datos.
“Mucha gente quiere herramientas que simplifiquen (la carga administrativa) de la educación superior. Gran parte de eso no ahorrará mucho tiempo ni dinero. Será menos perjudicial para el trabajador promedio”, dijo McClure. “Esto sugiere que la gente no busca algo que cambie el lugar de trabajo, sino que simplemente quiere ayuda con las tareas más molestas”.
Según el informe, la mayoría de las universidades no saben qué tan efectivas son estas herramientas: solo el 13 por ciento de los encuestados dijo que sus instituciones miden el retorno de la inversión (ROI) de las herramientas de inteligencia artificial relacionadas con los negocios.
“Medir el retorno de la inversión (ROI) para tecnologías específicas es un desafío, y esa es probablemente una de las principales razones por las que vemos esta brecha entre la adopción y la medición”, dijo Robert. “A medida que los líderes tecnológicos de la educación superior consideran inversiones a largo plazo, el retorno de la inversión (ROI) se está convirtiendo en una cuestión más apremiante”.
















