Me encuentro regularmente con un grupo de estudiantes de todo el estado, que representan a los cinco campus del sistema de la Universidad de Tennessee. Me gusta utilizar estas conversaciones para comprobar el pulso para entender qué tienen en la cabeza y qué están experimentando en el campus en tiempo real.
Recientemente, hemos hablado de salud mental y IA. Muchos estudiantes compartieron grandes preocupaciones sobre la IA, como cuestiones éticas y miedos al impacto ambiental, pero algunos comentarios destacaron de una forma que me sorprendió realmente.
Un estudiante me dijo que ChatGPT era “mejor” que cualquier terapeuta que hubieran visto nunca: más solidario, más validador y más reconfortante. Varios estudiantes describieron amigos que estaban en lo que llamaron “relaciones románticas” con la IA, algo que anteriormente había supuesto que sólo era pienso para titulares sensacionales. También estimaron que entre el 30 y el 40 por ciento de sus compañeros utilizan la IA para hacer compañía, en ocasiones como única fuente de compañía.
Tomas juntos y combinados con informes sobre la IA y el suicidio, me preocupaba cada vez más. Encuestas recientes muestran que el uso de la IA para la salud mental no es raro y, de hecho, está creciendo rápidamente. Por ejemplo, una encuesta halló que más del 13 por ciento de los adolescentes y adultos jóvenes de 12 a 21 años ya han utilizado la IA generativa para consejos sobre salud mental, con tasas que superan el 22 por ciento en los de 18 a 21 años. La mayoría de usuarios también informaron de que buscaban asesoramiento regularmente (mensualmente o más) y encontraban el asesoramiento algo o muy útil (92).
Al mismo tiempo, investigación de Common Sense Media pinta una imagen preocupante: los principales chatbots suelen perder los signos de advertencia de angustia para la salud mental y fomentan la confianza equivocada, incluso mediante el uso de un tono empático. Priorizan el compromiso por encima de la seguridad, y se encontró con que las barandillas de seguridad fallan de forma más espectacular en los tipos de conversaciones prolongadas que tienen los adolescentes y los adultos jóvenes.
Para mí esta conversación me parece extrañamente familiar y se hace eco de lo que hemos presenciado con la evolución de las redes sociales y la salud mental. Al principio, adoptamos con ilusión la nueva tecnología. Sólo más tarde, una vez que los daños se hicieron más claros, intentamos construir barandillas, y no siempre con éxito, ya que recientes veredictos del jurado contra Meta subrayado. Debemos acercarnos a la IA con mayor previsión.
Nina Vasan, profesora asistente clínica de psiquiatría en la Universidad de Stanford y fundadora y directora de Lluvia de ideas: The Stanford Lab for Mental Health Innovationque se centra en el estudio de cómo la tecnología da forma a la salud mental y cómo diseñarla de forma más responsable, me dijo que la educación superior no puede ignorar la IA y fingir que los estudiantes no la utilizan. “Este barco ha navegado”, dijo. “La pregunta es si les ayudamos a hacerlo con prudencia. El silencio de las instituciones no detiene el comportamiento; solo elimina las barandillas. Cuanto más rápido una institución pueda averiguar cómo utilizar mejor la IA, mejor para los estudiantes y el profesorado”.
A continuación, se detallan algunas cosas a tener en cuenta para saber cómo los colegios y las universidades pueden apoyar mejor a nuestros estudiantes ya nuestros empleados mientras navegamos por este panorama en evolución de la salud mental y la IA.
- Entender que no es sólo un problema de los estudiantes; es uno de todo el campus. Nos gusta creer que sólo son nuestros estudiantes los que utilizan IA, pero el uso de la IA también es generalizado entre el profesorado y el personal. A diferencia de la terapia, siempre está disponible (¡ya menudo es gratuita!), y el uso creciente de la IA pone de manifiesto las lagunas de nuestros recursos en el campus y el conocimiento de cómo encontrarlos y utilizarlos. Como dijo Vasan, “Aquí está la verdad incómoda: los estudiantes a menudo recurren a la IA precisamente porque los recursos del campus se sienten inaccesibles, ya sea por las listas de espera o por el estigma. Si ignoramos la IA, estamos ignorando por qué los estudiantes buscan alternativas en primer lugar”.
- Conozca qué puede y qué no puede hacer la IA por la salud mental y cuál debe ser su papel. Tal y como hemos hecho con las aplicaciones de telesalud o salud mental, los miembros de la comunidad del campus deben entender qué puede hacer y qué no puede hacer la IA por la salud mental y hablar abiertamente. Vasan dijo que la inteligencia artificial es buena para necesidades de salud mental de menor gravedad, como procesar emociones o practicar conversaciones duras, y para la psicoeducación general, cómo buscar qué es un ataque de pánico, pero no para síntomas de mayor riesgo. Ella dijo: “Digo a los estudiantes que piensen en la IA como un compañero de estudio, no como un terapeuta. Puede ayudarle a hacer una lluvia de ideas, organizar sus pensamientos, redactar un correo electrónico o ensayar una conversación difícil. Pero cuando está en crisis, necesita un humano que realmente pueda evaluar el riesgo, prescribir medicamentos”.
John Torous, director de la psiquiatría digital división del Beth Israel Deaconess Medical Center, equiparó la IA a “libros de autoayuda muy potentes”. Como estos libros, dijo, la IA “puede ofrecer contenido importante y útil, pero al igual que con un libro de autoayuda, será más impactante si aplica y practica estas habilidades/lecciones en el mundo real”. Añadió que también es importante conocer los límites de la autoayuda, puesto que no confiaría en un libro en caso de emergencia.
- Pregunte a sus alumnos y compañeros sobre su uso. Debemos sentirnos cómodos preguntando y hablando sobre IA y salud mental. Como dijo Vasan, “No hace falta convertirse en un experto en IA, pero hay que tener curiosidad suficiente para preguntar a los estudiantes qué utilizan y por qué”. Esto podría ser algo que incluso podría generar nuevas conexiones, a través de conversaciones como la mía con mi grupo de estudiantes.
- Entender los posibles signos de advertencia de un uso nocivo de la IA. Los titulares advierten de personas en crisis que utilizan IA y de algo que se ha conocido como “psicosis de la IA“, donde los usuarios forman relaciones emocionales con la IA y no pueden distinguir entre la interacción humana y las respuestas de las máquinas. Torous sugirió que los individuos controlen su uso de la IA y si” alguna vez observan el uso que perjudican las relaciones del mundo real (p.
Vasan añadió que el lenguaje en torno a la sustitución y la evitación es otra señal de advertencia. Dijo: “La bandera roja más grande es la sustitución, cuando la IA se convierte en un reemplazo de la conexión humana en lugar de un complemento de ésta. Si un estudiante dice:” Mi IA es la única que realmente me coge”, no es una historia de éxito. Ésta es una historia de aislamiento “.
- Las universidades deberían educar, formar y preparar a sus comunidades sobre IA y salud mental. La única manera para que las universidades sepan que su gente entiende los riesgos, beneficios y el papel de la IA en la salud mental es formarlos ellos mismos. Debería haber sesiones de divulgación, educación e incluso desarrollo profesional dirigidas sobre estos temas. Vasan dijo: “Hemos entrenado a los RA para detectar trastornos alimentarios y reconocer signos de uso indebido de alcohol. Necesitamos la misma fluidez básica sobre la IA y la salud mental”.
Por supuesto, esto no significa que de repente todos dominamos la inteligencia artificial y el aprendizaje automático, pero deberíamos saber qué preguntas debemos hacer. “Una hora (de entrenamiento) es suficiente para pasar a alguien de ‘No sé qué decir al respecto’ a ‘Sé las preguntas adecuadas para hacer y dónde referirme'”, dijo Vasan.
- Tenga cuidado con los argumentos de venta, pero considere las oportunidades para invertir en nuevas herramientas de salud mental. Como administradores de educación superior, estamos constantemente bombardeados con argumentos de ventas, en persona en conferencias ya través de nuestros mensajes directos de LinkedIn. Torous dijo desconfiar de estos argumentos y que sabe que ahora mismo ningún sistema de IA pretende ofrecer atención a la salud mental, aunque el marketing sugiere lo contrario, y la Administración de Alimentos y Medicamentos no autoriza a ninguno para ofrecerlo. Añadió: “No hay pruebas claras de que los sistemas de IA específicos para la salud mental sean mejores o más seguros que los modelos de IA generales más grandes (por ejemplo, Gemini, ChatGPT), así que trabaja para verificar cualquier afirmación. Si suena demasiado bueno para ser cierto, es probable que lo sea”.
Vasan dijo, antes de cualquier inversión, una universidad debería pedir pruebas como: “¿Se ha probado esta herramienta con poblaciones vulnerables? ¿Qué ocurre cuando un usuario está en crisis? ¿Hay una copia de seguridad humana? ¿Los datos son realmente privados?”
“La IA de salud mental que no sabe cuándo escalar a los humanos no es compatible; es una responsabilidad”, dijo Vasan. “La inversión debería centrarse en herramientas que conecten a los estudiantes con la atención, no mantenerles hablando con las máquinas indefinidamente”.
- Cuando sea posible, las universidades deberían participar en las conversaciones sobre la regulación. En medio de las demandas, existen conversaciones en curso a nivel estatal y nacional sobre la regulación de la IA, específicamente para el uso de la salud mental. Las universidades deberían defender y participar en estas conversaciones como puedan, porque no pueden seguir el ritmo como reguladores. Como señaló Vasan, “Las universidades están llenando un vacío. Como no existe una supervisión federal de las herramientas de salud mental de IA, cada campus básicamente realiza su propia evaluación de seguridad. Esto no es sostenible”.
En la educación superior, no podemos ignorar simplemente el nuevo uso, en evolución y continuamente creciente de la IA con fines de salud mental en nuestros campus. Deberíamos desconfiar de los riesgos y educarlos a menudo, pero también ser reflexivos sobre cómo implementar mejor la IA para integrarla con nuestras ofertas actuales, no evitar su uso. Como me dijo Vasan, “la inteligencia artificial no es inherentemente buena o mala para la salud mental. Es un espejo que refleja cómo la desplegamos. Si estamos pensativos, tenemos la oportunidad de atender a los estudiantes que nunca entrarán en un centro de asesoramiento. Si somos descuidados, podríamos profundizar el mismo aislamiento”.





