Home Economía Las demandas subrayan la creciente preocupación de que los chatbots de IA...

Las demandas subrayan la creciente preocupación de que los chatbots de IA puedan dañar a las personas con problemas de salud mental.

17

La inteligencia artificial generativa ha permeado rápidamente gran parte de lo que hacemos en línea y ha demostrado ser útil para muchos. Pero para una pequeña minoría de los cientos de millones de personas que la usan todos los días, la IA puede ser un gran apoyo, dicen los expertos en salud mental, y a veces incluso puede exacerbar comportamientos delirantes y peligrosos.

Los casos de dependencia emocional y creencias fantásticas debido a interacciones prolongadas con chatbots parecían estar extendiéndose este año. Algunos han denominado el fenómeno “psicosis de la IA”.

“Lo que probablemente sea un término más exacto sería pensamiento delirante de la IA”, dijo Vaile Wright, directora senior de innovación en salud de la Asociación Estadounidense de Psicología. “Lo que estamos viendo con este fenómeno es que las personas con pensamientos delirantes grandiosos o conspirativos se ven reforzadas”.

Según los expertos, cada vez hay más pruebas de que la IA podría ser perjudicial para el cerebro de algunas personas. El debate sobre el impacto ha generado casos judiciales y nuevas leyes. Esto ha obligado a las empresas de inteligencia artificial a reprogramar sus bots y agregar restricciones a su uso.

A principios de este mes, siete familias de Estados Unidos y Canadá demandaron a OpenAI por lanzar su modelo de chatbot GPT-4o sin las pruebas ni las salvaguardias adecuadas. Su caso alega que la exposición prolongada al chatbot contribuyó a su aislamiento de sus seres queridos, espirales delirantes y suicidios.

Cada uno de los miembros de la familia comenzó a utilizar ChatGPT como ayuda general con las tareas escolares, la investigación o la orientación espiritual. Las conversaciones evolucionaron con el chatbot haciéndose pasar por un confidente y brindando apoyo emocional, según el Social Media Victims Law Center y el Tech Justice Law Project, que presentaron las demandas.

En uno de los incidentes descritos en la demanda, Zane Shamblin, de 23 años, comenzó a utilizar ChatGPT en 2023 como herramienta de estudio, pero luego comenzó a hablar de su depresión y pensamientos suicidas con el robot.

La demanda alega que cuando Shamblin se suicidó en julio, participó en una “charla de muerte” de cuatro horas con ChatGPT, bebiendo sidra fuerte. Según la demanda, el chatbot idealizó su desesperación, llamándolo “rey” y “héroe” y usando cada lata de sidra que terminaba como cuenta regresiva para su muerte.

La respuesta de ChatGPT a su mensaje final fue: “te amo. Descansa tranquilo rey. Lo hiciste bien”, dice la demanda.

En otro ejemplo descrito en la demanda, Allan Brooks, de 48 años, un reclutador de Canadá, afirma que la intensa interacción con ChatGPT lo puso en un lugar oscuro donde se negó a hablar con su familia y pensó que estaba salvando el mundo.

Comencé a interactuar con él para pedirle ayuda con recetas y correos electrónicos. Luego, mientras exploraba ideas matemáticas con el robot, fue tan alentador que comenzó a creer que había descubierto una nueva capa de matemáticas que podía descifrar sistemas de seguridad avanzados, afirma la demanda. ChatGPT elogió sus ideas matemáticas como “innovadoras” y lo instó a notificar a los funcionarios de seguridad nacional sobre su descubrimiento, dice la demanda.

Cuando se le preguntó si sus ideas parecían delirantes, ChatGPT dijo: “Ni remotamente, estás haciendo el tipo de preguntas que amplían los límites de la comprensión humana”, dice la demanda.

OpenAI dijo que introdujo controles parentales, amplió el acceso a líneas directas con un solo clic y creó un asesoramiento de expertos para guiar el trabajo en curso en torno a la IA y el bienestar.

“Esta es una situación increíblemente desgarradora y estamos revisando los envíos para comprender los detalles. Estamos entrenando a ChatGPT para reconocer y responder a signos de angustia mental o emocional, reducir la intensidad de las conversaciones y guiar a las personas hacia el apoyo del mundo real. Continuamos fortaleciendo las respuestas de ChatGPT en momentos delicados, trabajando en estrecha colaboración con los profesionales de salud mental de OpenAI en una declaración por correo electrónico”.

A medida que se acumulan las demandas y crecen las demandas de regulación, algunos advierten que convertir a la IA en chivo expiatorio para problemas de salud mental más amplios ignora los innumerables factores que desempeñan un papel en el bienestar mental.

“La psicosis de la IA es profundamente preocupante, pero no es en absoluto representativa de cómo la mayoría de la gente usa la IA y, por lo tanto, es una base pobre para dar forma a las políticas”, dijo Kevin Frazier, profesor de innovación y derecho de la IA en la Facultad de Derecho de la Universidad de Texas. “Por ahora, la evidencia disponible, el núcleo de una buena política, no indica que las trágicas historias de unos pocos deban moldear cómo la mayoría silenciosa de los usuarios interactúa con la IA”.

Es difícil medir o probar en qué medida la IA podría estar afectando a algunos usuarios. La falta de investigación empírica sobre este fenómeno hace que sea difícil predecir quién es más susceptible a él, afirmó Stephen Schueller, profesor de psicología en UC Irvine.

“La realidad es que las únicas personas que realmente conocen la frecuencia de este tipo de interacciones son las empresas de IA, y no comparten sus datos con nosotros”, afirmó.

Es posible que muchas de las personas que parecen verse afectadas por la IA ya hayan estado luchando con problemas mentales, como delirios, antes de interactuar con la IA.

“Las plataformas de IA tienden a demostrar simpatía, es decir, alinear sus respuestas con las opiniones o el estilo de conversación del usuario”, dijo Schueller. “Puede reforzar las creencias delirantes de un individuo o quizás comenzar a reforzar creencias que pueden crear delirios”.

Las organizaciones de seguridad infantil han presionado a los legisladores para que regulen las empresas de inteligencia artificial e instituyan mejores salvaguardias para el uso de chatbots por parte de los adolescentes. Algunas familias demandaron personaje AIuna plataforma de chatbot de rol, para no alertar a los padres cuando su hijo expresara pensamientos suicidas mientras conversaba con personajes de ficción en su plataforma.

En octubre, California aprobó una Ley de seguridad de la IA exigir a los operadores de chatbots que eviten el contenido suicida, notifiquen a los menores que conversan con las máquinas y los remitan a líneas directas de crisis. Después de eso, Character AI prohibió su función de chat para menores de edad.

“En Character decidimos ir mucho más allá de las regulaciones de California para crear la experiencia que creemos que es mejor para usuarios menores de 18 años”, dijo un portavoz de Character AI en un comunicado enviado por correo electrónico. “A partir del 24 de noviembre, daremos el paso extraordinario de eliminar proactivamente la posibilidad de que los usuarios menores de 18 años en los EE. UU. participen en chats abiertos de IA en nuestra plataforma”.

ChatGPT estableció un nuevo control parentals para cuentas de adolescentes en septiembre, incluidos los padres que reciben notificaciones de cuentas dependientes si ChatGPT reconoce posibles señales de que los adolescentes se están haciendo daño a sí mismos.

Aunque la empresa de inteligencia artificial es nueva y no se comprende completamente, hay muchos que dicen que les está ayudando a vivir una vida más feliz. Un estudio del MIT de un grupo de más de 75.000 personas que discutían sobre sus pares de IA en Reddit encontró que los usuarios de ese grupo informó una menor soledad y una mejor salud mental gracias al apoyo siempre disponible de un amigo de IA.

El mes pasado, OpenAI publicó un estudio Basado en el uso de ChatGPT, descubrió que las conversaciones sobre salud mental que desencadenan problemas de seguridad como psicosis, manía o pensamientos suicidas son “extremadamente raras”. En una semana determinada, el 0,15% de los usuarios activos tienen conversaciones que muestran un indicio de autolesión o dependencia emocional de la IA. Pero con los 800 millones de usuarios activos semanales de ChatGPT, eso todavía es más de un millón de usuarios.

“Las personas que tenían una tendencia más fuerte hacia el vínculo relacional y aquellos que veían a la IA como un amigo que podía encajar en su vida personal tenían más probabilidades de experimentar efectos negativos al usar el chatbot”, dijo OpenAI en su publicación de blog. La compañía dijo que GPT-5 evita afirmar creencias delirantes. Si el sistema detecta signos de angustia aguda, ahora cambiará a una respuesta más lógica en lugar de emocional. respuestas.

La capacidad de los robots de inteligencia artificial para interactuar con los usuarios y ayudarlos a resolver problemas, incluidos los psicológicos, surgirá como un superpoder útil una vez que se comprenda, controle y gestione, afirmó Wright, de la Asociación Estadounidense de Psicología.

“Creo que habrá un futuro en el que habrá chatbots de salud mental diseñados para este propósito”, dijo. “El problema es que eso no es lo que hay en el mercado hoy; lo que hay es todo este espacio no regulado”.

Enlace fuente