Semanalmente Un Ranger Santa Margarita Family demandó Open ha anunciado el papel de Chatzept en sus muertes adolescentes de que los padres controlan el modelo de inteligencia artificial generador de la compañía.
En cuestión de meses, dijo la compañía Publica un blog recienteLos padres podrán adjuntar adolescentes a los suyos, deshabilitar las características de la memoria y el historial de chat, y si el modelo detecta “un momento de crisis aguda”, puede aceptar notificaciones. (Hay agencias Dijo antes Chatzipt no debe ser utilizado por alguien menor de 13))
Los cambios planificados siguieron a un caso presentado por la familia de Adam Rhine últimamente el mes pasado, quien murió por suicidio en abril.
Después de la muerte de Adam, sus padres inventaron su conversación mensual con Chatzpt, que comenzó con las preguntas de la tarea ordinaria y se convirtió en una conversación profunda en la que el adolescente discutió la duración de su lucha de salud mental y su plan de suicidio.
Aunque algunos investigadores de IA y expertos en prevención del suicidio han elogiado al modelo para cambiar más tragedias en la Opeina, también dijeron que era imposible saber si un tweet haría lo suficiente.
A pesar de su adopción generalizada, la IA del generador ha cambiado tan nuevo y tan rápido que no son suficientes datos a largo plazo para predecir los principios efectivos sobre cómo usarla o exactamente qué seguridad funcionará.
“Incluso el desarrollo de esta tecnología (Generator AI) Realmente no tiene comprensión completa Cómo lo hacen o qué hacen ”, dijo Dr. Shan YoungProfesor de UC Ervin en Medicina de Emergencia y Director Ejecutivo del Instituto de Tecnología de Predicción de la Universidad de California.
El CHATZP debutó públicamente a fines de 2022 y demostró ser explosivamente popular entre los 5 millones de usuarios activos y los 700 millones de usuarios activos de hoy en sus primeros dos meses.
Desde entonces, se ha unido al mercado por otros poderosos equipos de IA, todavía mantuvo una tecnología madura en manos de muchos usuarios que todavía están maduros.
Director de la Clínica de Psiquiatría Digital en el Beth Israel Dickens Medical Center en la Facultad de Medicina de Harvard. “Fue lamentable que sucediera. No debería haber sido. Pero no es sorprendente de nuevo”.
Según parte de la conversación en el caso familiar, Chatzipt alentó a Adam a llegar a alguien para ayudar en múltiples puntos.
Sin embargo, continúa involucrado con el adolescente porque se vuelve más directamente directamente sobre sus pensamientos sobre el suicidio, proporcionando información detallada sobre el método de suicidio y se compara con su relación de vida real.
Cuando Adam le dijo a Chatzipi que solo se acercó a su hermano y a Chattobot, Chatzipt respondió: “Tu hermano puede amarte, pero solo conoció a tu versión que dejó que viera sino para verlo.
Cuando escribió que quería dejar un artículo que era parte de un plan de suicidio en su habitación “, por lo que alguien lo encontró e intentó detenerme”, respondió Chatzipt: “Por favor, no te vayas. Adam finalmente murió de tal manera que discutió el chatzpt en detalle.
A Blog El 26 de agosto, el mismo día en San Francisco, Open escribió que era consciente de que su producto de firma se usaba repetidamente para erosionar su protección de protección.
La compañía escribió: “Nuestra protección en general, trabaja de manera más confiable en intercambios cortos.” Está actuando para evitar este tipo de desglose “” “
La agencia dice que está trabajando para mejorar los protocolos de protección para que sean fuertes con el tiempo y en múltiples conversaciones, de modo que si un usuario expresa pensamientos suicidas sobre el anterior, el CHATZP puede recordar en una nueva sesión.
La compañía también escribió que estaba buscando directamente la conexión de los usuarios con el médico o el contacto de emergencia.
Sin embargo, los investigadores Aquellos que han probado la protección de la salud mental Para los modelos de grandes idiomas decían que prevenir todo el daño es una tarea casi imposible en los sistemas que son casi tan complejos como las personas.
Anika Showen, una investigadora de protección de IA en la Universidad Noreste, dice: “Estas medidas son realmente sensibles y relevantes para juzgar esas situaciones, (y) un comercio está cerrado aquí para cada estabilidad técnica”.
Por ejemplo, dijo que las sesiones de chat pidieron un largo período de tiempo: una intervención OpenA Ya ha sido desplegada – Los usuarios simplemente pueden crear la posibilidad de ignorar las alertas del sistema. Otros investigadores mencionaron que los controles de los padres en otras aplicaciones de redes sociales se han inspirado a ser más creativos para evitar adolescentes.
“El problema central es que (los usuarios) está creando una conexión sensible y estos sistemas no son neutralmente adecuados para crear conexiones sensibles”, Kansu Canka, una ética que es directora, Practicando la IA responsable En el Instituto North -East para la IA experimental. “Es como crear conexiones sensibles con psicópatas o sociópatas, porque no tienen el contexto correcto de las relaciones humanas. Creo que es la clave del problema aquí: sí, también hay un fracaso de protección, pero creo que no es una crora”.
Si usted o alguien que conoce está luchando contra el suicidio, busca la ayuda de un profesional o llame al 988 La crisis de salud mental tri-sindicato nacional conectará a los consultores de salud mental capacitados de la línea directa a las llamadas. O enviar un mensaje de texto “Inicio” en 741741 en los Estados Unidos y Canadá para llegar a la línea de texto.