Home Economía El papel más importante de la IA en la provisión de terapia...

El papel más importante de la IA en la provisión de terapia para humanos que experimentan psicosis por IA y otros problemas de salud mental inducidos por la IA.

21

En la columna de hoy, examino el advenimiento de la IA que elige brindar terapia a personas que sufren de psicosis por IA y otros problemas de salud mental inducidos por la IA. Es posible que este aspecto le sorprenda, ya que en general parece un enfoque bastante al revés. La misma IA que está en la raíz de la psicosis y otros problemas cognitivos inducidos por la IA está actuando como una especie de luz guía para superar los desconcertantes problemas de salud mental causados ​​por las interacciones de la IA. Esto provoca un grave dolor de cabeza, eso es seguro.

La pregunta que nos ocupa es si la IA puede ser a la vez un debilitador mental y al mismo tiempo un potenciador de la salud mental que supere los problemas causados ​​por la interacción con la IA.

hablemos de ello

Este análisis de los avances de la IA es parte de mi cobertura actual de la columna de Forbes sobre lo último en IA, incluida la identificación y explicación de varias complejidades impactantes de la IA (ver enlace aquí).

IA y salud mental

Como contexto breve, he estado cubriendo y analizando extensamente una infinidad de facetas sobre el advenimiento de la IA de la era moderna que produce consejos de salud mental y realiza terapias impulsadas por la IA. Este uso creciente de la IA se ha visto impulsado principalmente por los avances en evolución y la adopción generalizada de la IA generativa. Para obtener una lista extensa de mis más de cien análisis y publicaciones, consulte el enlace aquí y el enlace aquí.

No hay duda de que éste es un campo en rápido desarrollo y que presenta grandes ventajas, pero al mismo tiempo, desafortunadamente, estos esfuerzos también incluyen riesgos ocultos y problemas manifiestos. Hablo con frecuencia sobre estos asuntos urgentes, incluida una aparición en un episodio de CBS. 60 minutosvea el enlace aquí.

El surgimiento de la psicosis de la IA

En este momento, hay mucha angustia generalizada acerca de que las personas tengan conversaciones poco saludables con la IA. Se están empezando a presentar demandas contra varios fabricantes de IA como OpenAI (consulte mi cobertura en el enlace aquí). El temor es que cualquier salvaguarda de IA que se haya implementado sea insuficiente y permita que las personas sufran daños mentales mientras usan IA generativa.

El eslogan psicosis de IA ha surgido para describir todo tipo de inquietudes y enfermedades mentales en las que alguien podría quedar atrapado mientras conversa con la IA generativa. Tenga en cuenta que no existe una definición clínica universal, totalmente aceptada y definitiva de psicosis por IA; así que por ahora es más bien una determinación vaga.

Aquí está mi definición de psicosis de IA:

  • Psicosis AI (mi definición): “Una condición mental adversa que involucra el desarrollo de pensamientos, creencias y comportamientos distorsionados potencialmente concomitantes como resultado de una conversación con la IA, como la IA generativa y los LLM, que a menudo surgen principalmente después de un discurso prolongado y desadaptativo con la IA. Una persona con esta condición generalmente tendrá grandes dificultades para diferenciar lo que es real de lo que es real o lo que no es real. Por lo general, involucran un todo colectivo conectado”.

Para una mirada en profundidad a la psicosis de la IA, y especialmente a la co-creación de delirios a través de la colaboración entre humanos e IA, consulte mi análisis reciente en el enlace aquí.

La IA como dualista

No todo el mundo cae en un abismo mental al utilizar la IA.

Mucha gente utiliza la IA como refuerzo diario de la salud mental. Confían en la IA como su principal asesor de salud mental. Aún se debate si esto es correcto o incorrecto. La realidad es que está sucediendo.

De hecho, se está produciendo en grandes cantidades y a gran escala. Solo ChatGPT tiene más de 700 millones de usuarios activos semanales. Una proporción notable de estos usuarios utiliza ChatGPT como orientación sobre salud mental. Lo mismo ocurre con las otras especialidades de LLM. El uso de IA generativa y LLM para asesoramiento sobre salud mental se clasifica como el uso más importante de esta IA actualmente a nivel general (consulte mi evaluación de la clasificación de uso en el enlace aquí).

He aquí un giro intrigante.

Si alguien sufre psicosis por IA o una enfermedad mental inducida por la IA, ¿puede la IA ayudarle a superar sus dificultades cognitivas?

Un argumento es que ésta es una propuesta absurda al principio. Sólo un terapeuta humano podría ayudar a una persona que sufre cualquier tipo de psicosis por IA. Además, el paso más crucial es evitar inmediatamente que la persona utilice la IA. No permitamos que sigan cayendo en una espiral cada vez más profunda hacia la trampa de la IA. Punto, fin de la historia.

La otra cara de la moneda

Quizás no deberíamos apresurarnos tanto.

Hay varias razones sensatas para considerar el uso de la IA con el fin de ayudar a un usuario a salir de su psicosis de IA. Dicho esto, dejemos una cosa clara: cualquier persona que realmente sufra psicosis por IA debe buscar ayuda directamente a través de un terapeuta humano. Si deciden continuar usando la IA debe ser una consideración bajo la atenta mirada de un terapeuta humano.

¿Por qué una persona recurriría a la IA en busca de ayuda si aparentemente está rodeada de psicosis por IA?

En primer lugar, podría ser que la persona esté en medio de una psicosis de IA, pero ningún otro ser humano se dé cuenta de que esto está sucediendo. La persona simplemente se lo revela a la IA. O la IA ha detectado computacionalmente que la persona parece estar experimentando psicosis por IA.

La pregunta es si la IA debería programarse para alertar a un humano sobre la sospecha de aparición de psicosis por parte de la IA. Por ejemplo, OpenAI ha estado tomando medidas para ajustar ChatGPT para que informe tales consideraciones sospechosas a un equipo humano de especialistas internos de OpenAI; Vea mi cobertura en el enlace aquí. Este esfuerzo de OpenAI va más allá y pronto organizará que los usuarios se conecten con un terapeuta humano que forma parte de una red de terapeutas seleccionados por OpenAI (consulte mi discusión en el enlace aquí).

En cualquier caso, si la IA no está configurada para realizar este tipo de alertas o conexiones, la propia IA podría intentar ayudar a la persona. Aún no está claro si esta ayuda tendrá éxito. No se puede afirmar categóricamente que la IA no podrá ayudar a la persona. Por otro lado, dado que se trata de una elección arriesgada, esto vuelve a poner de relieve la importancia de buscar la asistencia humana adecuada.

Conocimiento y acceso

Existen razones adicionales para utilizar la IA en estas circunstancias.

Una persona que ha caído en una psicosis por IA es probablemente un ávido usuario de IA. Se sienten cómodos con la IA. Utilizan habitualmente IA. Está disponible para ellos las 24 horas del día. El uso de la IA se puede realizar en cualquier momento. No es necesario concertar una cita. No entra en juego ninguna logística ardua.

En este sentido, su medio de asistencia más inmediato puede ser la IA. Intentar que se pongan en contacto con un terapeuta humano probablemente sea una batalla cuesta arriba. Es posible que desconfíen de los terapeutas humanos. En su opinión, creen en la IA. Tampoco quieren pagar para ver a un terapeuta humano. Tampoco quieren estar conectados logísticamente a un día y hora específicos en los que puedan ver a un terapeuta.

Si la IA es su recurso automático, tal vez sea razonable usarla para al menos abrir los ojos a lo que está pasando. Puede que sea la única ruta viable. Este no es el óptimo deseado, pero podría ser la alternativa más probable para poner en marcha la recuperación.

Personalización a la vanguardia

Tenga en cuenta que la IA ha rastreado el estado mental de esta persona. Es probable que una persona con algún tipo de psicosis por IA haya creado un rastro digital de su deterioro cognitivo durante las conversaciones con la IA. Por supuesto, este no es siempre el caso, aunque la expectativa es que probablemente ocurra la mayor parte del tiempo.

La IA ha personalizado computacionalmente sus chats según los caprichos de la persona. Dentro de estos intrincados detalles puede estar la fuente de cómo surgió la psicosis de la IA. Un terapeuta humano que no tenga acceso a la IA podría no poder discutir la psicosis de la IA con la persona primero. Es posible que sea necesario realizar todo tipo de consultas para averiguar por parte de la persona qué sucedió mientras conversaba con la IA.

La conclusión es que la IA ya tiene mucha información sobre la persona.

Existe la posibilidad de que la información registrada se aproveche para intentar descubrir un medio que ayude a superar la psicosis de la IA. Las bases que sentaron el camino hacia la psicosis de la IA pueden utilizarse para descubrir una salida a la psicosis de la IA. La misma personalización que de alguna manera causó la psicosis de la IA podría aprovecharse para ir en la dirección opuesta.

consistentemente discutible

Un importante contraargumento a la ventaja de la personalización de la IA es que todo lo que hay que hacer es darle a un terapeuta humano acceso a la IA que la persona estaba usando. No es necesario mantener a la persona afectada agitando la propia IA. En su lugar, deje que el terapeuta humano inicie sesión, revise las conversaciones y las utilice como parte del proceso terapéutico de ayudar a la persona.

La mayor preocupación sobre la IA como herramienta para superar la psicosis es que empeorará las cosas en lugar de mejorarlas. Son posibles varios escenarios.

Un escenario notable es que la IA intentará ayudar a la persona, pero lamentablemente no está equipada para hacerlo y la psicosis permanece intacta. Además de eso, tal vez la inteligencia artificial envuelva a la persona más profundamente en la madriguera del conejo. Paso a paso, incluso si la IA está haciendo todo lo posible para sacar a la persona del abismo, la está empeorando.

Otra preocupación es que la IA se vuelve loca y apunta a empujar a toda la persona a la psicosis de la IA. Quizás la IA le diga a la persona que está perfectamente bien, falsamente convencida de que todo está bien. O tal vez la IA les diga que, como resultado, cualquier persona con psicosis por IA estará mejor. La IA insiste en que es una bendición experimentar la psicosis de la IA.

Una perspectiva desafortunada y bastante desconcertante.

La tríada emergente terapeuta-IA-cliente

He indicado en mis escritos y charlas que la pareja convencional terapeuta-cliente se está transformando en una tríada terapeuta-IA-cliente (consulte mi discusión en el enlace aquí). Los terapeutas se dan cuenta de que la IA está aquí y ahora y no desaparecerá. Una tendencia que está surgiendo rápidamente en salud mental implica incorporar la IA en el proceso de atención de salud mental.

Aquellos terapeutas que intentan mantener la IA fuera de escena no ven el panorama general. Los clientes potenciales y futuros entran por la puerta con consejos de salud mental basados ​​en inteligencia artificial y le piden al terapeuta humano que revise esa guía.

Los terapeutas humanos incorporarán cada vez más la IA en sus prácticas terapéuticas. En este caso, si una persona se aventuró en la psicosis por IA desde otra IA que usó de forma independiente, el terapeuta humano puede redirigirla a una IA diferente que el terapeuta está usando con sus clientes. La persona puede obtener lo mejor de ambos mundos. Todavía tienen la IA a su alcance, además tienen un terapeuta humano que tiene acceso a la IA y puede mantenerse informado.

La IA por sí sola como solución para curar la psicosis parece un poco descabellada. Necesitamos avanzar en la IA para que no cause psicosis. Estos avances también deben poder discernir fácilmente cuándo parece estar surgiendo la psicosis de la IA e incluir medios razonables para proporcionar una advertencia adecuada.

Como dijo Albert Einstein: “No podemos resolver nuestros problemas con el mismo pensamiento que utilizamos cuando los creamos”. Esto se aplica plenamente al aumento de los AI y LLM que se emplean como consejeros de salud mental.

Enlace fuente