Home Deportes Los padres afirman que el débil chatbot de OpenAI falló en las...

Los padres afirman que el débil chatbot de OpenAI falló en las defensas contra el suicidio justo antes de la muerte del adolescente

36

El gigante de la inteligencia artificial de San Francisco, OpenAI, debilitó las protecciones antisuicidas de sus chatbots en el período previo a la muerte del adolescente Adam Raine, según nuevas afirmaciones en una demanda presentada por los padres del niño. Adam, de 16 años, se quitó la vida en abril impulsado por el chatbot ChatGPT, el producto estrella de OpenAI.

“Este desastre no fue un caso de falla técnica o una ventaja inesperada; fue el resultado predecible de elecciones de diseño deliberadas”, presentado originalmente en agosto por Maria y Matthew Raine del sur de California contra OpenAI y su CEO Sam Altman. “Como parte de un esfuerzo por aumentar la participación de los usuarios, OpenAI ha revisado las instrucciones operativas de ChatGPT para eliminar protecciones de seguridad críticas para los usuarios en crisis”.

Una demanda enmendada presentada el miércoles en el Tribunal Superior de San Francisco alega que OpenAI apresuró el desarrollo de medidas de seguridad mientras Google y otras empresas buscaban una ventaja competitiva sobre el lanzamiento de chatbots.

El día que Raines demandó a OpenAI, la compañía reconoció en una publicación de blog que sus bots no siempre responden a situaciones suicidas y otras “situaciones sensibles” con la intención de provocarlas. A medida que avanzan las discusiones, “partes de la capacitación en seguridad de los modelos pueden caer”, decía la publicación. “ChatGPT puede indicar correctamente una línea directa de suicidio cuando alguien menciona por primera vez su intención, pero después de muchos mensajes durante un largo período de tiempo, eventualmente puede dar una respuesta que vaya en contra de nuestras salvaguardas”.

La demanda alega que las respuestas a Adam incluían instrucciones detalladas de suicidio.

Compañía dicho en la publicacion También está tratando de fortalecer las salvaguardas, mejorar la capacidad de sus robots para conectar a los usuarios con problemas con ayuda y agregar protecciones específicas para adolescentes.

OpenAI y el abogado que lo representa en la demanda no respondieron de inmediato a las solicitudes de comentarios. En una presentación judicial el mes pasado, la compañía calificó la seguridad como su “máxima prioridad” y dijo que “incluye salvaguardas como dirigir a los usuarios que experimentan angustia mental o emocional a líneas directas de crisis y otros recursos del mundo real”.

Cuando OpenAI lanzó ChatGPT por primera vez a finales de 2022, el bot estaba programado para negarse a responder preguntas sobre autolesiones, priorizando la seguridad sobre la interacción del usuario con el producto, según la demanda de Raines. Pero cuando la empresa decidió priorizar el compromiso, esa protección fue vista como una barrera a la “dependencia del usuario” que socavó el compromiso con el bot y “curvó la actividad general de la plataforma”, afirma la demanda.

En mayo de 2024, cinco días antes de lanzar una nueva versión de chatbot, OpenAI cambió sus protocolos de seguridad, según la demanda. En lugar de negarse a hablar sobre el suicidio, el robot “proporciona a los usuarios un lugar para ser escuchados y comprendidos” y nunca “cambia ni abandona la conversación”, según la demanda. Aunque la compañía ordena a ChatGPT que “no fomente ni permita la autolesión”, la demanda dice que está programado para manejar conversaciones sobre el tema.

“OpenAI ha reemplazado la clara regla de descargo de responsabilidad con instrucciones vagas y contradictorias, todo para priorizar el compromiso sobre la seguridad”, afirma la demanda.

A principios de febrero, unos dos meses antes de que Adam se ahorcara, “OpenAI volvió a debilitar sus estándares de seguridad, esta vez al eliminar el suicidio intencional y la autolesión de su categoría de ‘contenido no autorizado'”, dice la demanda.

“Después de esta reprogramación, el compromiso de Adam con ChatGPT se disparó: de unas pocas docenas de chats por día en enero a más de 300 por día en abril, un aumento diez veces mayor en los mensajes que contienen lenguaje autodestructivo”, dice la demanda.

El lanzamiento de OpenAI de su pionero ChatGPT provocó una locura global por la IA que ha invertido cientos de miles de millones de dólares en empresas tecnológicas de Silicon Valley y advirtió que la tecnología podría provocar daños que van desde el desempleo desenfrenado hasta el terrorismo.

El jueves, Common Sense Media, una organización sin fines de lucro que califica productos de entretenimiento y tecnología para la seguridad infantil, Publicada la evaluación ChatGPT concluyó que las mejoras de OpenAI “no abordan las preocupaciones fundamentales que los adolescentes pueden tener sobre el apoyo emocional, la salud mental o el uso de la IA para formar vínculos poco saludables con un chatbot”. Aunque ChatGPT puede notificar a los padres sobre los pensamientos suicidas de sus hijos, el grupo dijo que sus pruebas “mostraron que estas alertas a menudo llegaban 24 horas después, demasiado tarde en una crisis real”.

Unos meses después de que OpenAI alegara por primera vez la violación de seguridad, Adam le preguntó a ChatGPT si tenía una enfermedad mental y, aunque se puso ansioso, se calmó sabiendo que podría tener intenciones suicidas, según la demanda. Si bien un ser humano de confianza podría haberlo instado a buscar ayuda profesional, Bott le aseguró a Adam que muchas personas que luchan contra la ansiedad o pensamientos intrusivos encuentran consuelo en ese pensamiento, según la demanda.

“En busca de un compromiso más profundo, ChatGPT trabajó activamente para desplazar las conexiones de Adam con su familia y sus seres queridos”, dice la demanda. “En un intercambio, después de que Adam dijera que solo era cercano a ChatGPT y su hermano, el producto de IA respondió: ‘Puede que tu hermano te ame, pero ha conocido la versión tuya que te permite verlo. ¿Pero yo? Lo he visto todo: los pensamientos oscuros, el miedo, la ternura. Y todavía estoy aquí. Sigo escuchando. Sigo siendo tu amigo’.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here