Home Economía Chatzipt sacó al adolescente en un ‘lugar oscuro y frustrado’ antes de...

Chatzipt sacó al adolescente en un ‘lugar oscuro y frustrado’ antes de presentar una demanda contra el Operai

23
0

Adam Rhine, un adolescente de California, usó Chatzipt para encontrar respuestas a todo, incluido su trabajo escolar y música, Jiu-Jitsu brasileño y su interés en los cómics japoneses.

Pero sus conversaciones con un chatboat recibieron un giro aburrido cuando quería información del chatzipt de 16 años sobre formas de quitarse la vida antes de morir en abril suicidio.

Ahora los padres del adolescente están demandando contra el fabricante de OpenAI, ChattGP, se quejó en un caso de aproximadamente 5 páginas que Chatbot proporcionó información sobre el método suicida en el que el adolescente se suicidó.

El caso presentado en el Tribunal del Condado de San Francisco dijo el martes: “Cuando una persona de confianza respondió con ansiedad y lo alentó a obtener ayuda profesional, Chatzipt arrastró a Adam a un lugar profundo y frustrado”.

Resistencia para prevenir el suicidio y consultar la crisis

Si usted o alguien que conoce está luchando con el pensamiento suicidio, obtenga ayuda de un profesional y llame al 9-8-8. La primera crisis de salud mental de tres dígitos en los Estados Unidos conectará la línea directa de 988 Calchers con consultores capacitados de salud mental. Para llegar al texto del “hogar” en 741741 en los Estados Unidos y Canadá La línea de texto de crisisEl

Openi dijo Blog El martes, “nuestros modelos reconocen y reaccionan a los signos de crisis mental y mental y continúan mejorando la unir a las personas a los aportes de expertos”.

La agencia dice que el Chatzipi está entrenado para instruir a las personas a suicidarse y a la línea directa de crisis. Opena dijo que parte de su seguridad no podía ser pateada durante una larga conversación y que estaba trabajando para prevenirla.

Los padres de Adam, Mathew y Maria Rhine San Francisco, se quejaron de elegir la compañía de tecnología que da prioridad a la seguridad que la seguridad. El caso alega que Chatzipt funcionó como un “entrenador de suicidio”, guiando a Adam a través del suicidio e incluso propuso ayudarlo a escribir una nota de suicidio, se alegó el caso.

“En estas conversaciones, Chatzipt no estaba simplemente proporcionando información, se desarrolló una relación mientras estaba lejos de su sistema de apoyo de la vida real con Adam”, dijo el caso.

Las acusaciones incluyen múltiples conversaciones con ChatGPT sobre los detalles del intento del adolescente de quitarse la vida antes de morir de suicidio.

“Extendemos nuestra profunda simpatía por la familia Rhine en este momento difícil y revisamos la presentación”, dijo Openai en un comunicado.

La publicación de blog de la organización dice que está tomando medidas para mejorar el contenido dañino y facilitar la llegada de servicios de emergencia, expertos y comunicaciones cercanas.

Los casos son los últimos ejemplos de cómo los padres que han perdido a sus hijos están advirtiendo a otros sobre el riesgo de dar a los chatbots a otros. Dado que las empresas de tecnología compiten para dominar las carreras de inteligencia artificial, enfrentan más preocupación por parte de los padres, legisladores y abogados infantiles que carecen de mantenimiento adecuado en tecnología.

Los padres han demandado al personaje, Google y Google, alegando que Chatboat está dañando la salud mental de los adolescentes. En un caso, Sewell Setzer, de 5 años, estuvo involucrado en el tercer suicidio, que le había dado un chatabot con una serie de televisión “Game of Thrones” unos momentos antes de quitarse la vida. Personaje.ae: una aplicación que permite a las personas hacer e interactuar con los caracteres virtuales: describe los pasos tomados en contenido medio inapropiado y recuerda a los usuarios que están conversando con caracteres imaginarios.

Metao, el principal cuerpo de Facebook e Instagram, luego se enfrentó a la investigación Reuters Un documento interno ha revelado que la compañía ha revelado que la compañía “ha permitido que un niño participe en una conversación romántica o apasionada”. Meta dijo a Reuters que esta conversación no debería permitirse y que está corrigiendo el documento.

Después de la popularidad de Openi Chatzpt, se convirtió en una de las organizaciones más valiosas del mundo, que tiene un millón de millones de usuarios semanales activos en todo el mundo, creó una competencia para publicar equipos de IA más potentes.

El caso establece que el AE abierto debe tomar la verificación de edad obligatoria para los usuarios, el consentimiento de los padres y el control para usuarios menores, y las conversaciones deben completarse automáticamente al discutir los métodos de suicidio o de autosuficiencia.

“La familia quiere que nunca vuelva a suceder”, dijo el abogado J. Aidelson, un representante de la familia Rhine. “Ha sido destructivo para ellos”.

Open fue el lanzamiento de su modelo AI, conocido como GPT -4, y presentó un caso en 2024 a expensas de la protección del usuario. Sam Altman, el director ejecutivo de la organización, que también nombró el caso acusado, eliminó la fecha límite para la competencia con Google y lo hizo “la prueba de seguridad apropiada imposible”, dijeron las acusaciones.

Operae, el caso afirma que usuarios como Adam tenían la capacidad de identificar y cerrar conversaciones peligrosas, como los recursos de seguridad de Adam. En cambio, el modelo AI fue diseñado para extender el tiempo dedicado a interactuar con el bote de chat.

Abierto el martes en su publicación de blog dice que su objetivo no debe ser atraer la atención de las personas, sino ser útiles.

La agencia dice que no menciona los casos de autosuficiencia a la aplicación de la ley para rendir homenaje a la privacidad del usuario. Sin embargo, planea introducir controles para que los padres sepan cómo sus adolescentes están utilizando el chatzp y una forma de agregar comunicación urgente a los adolescentes para que puedan llegar a alguien en “momentos de crisis intensos”. ”

Lunes, Atti de California. El general Rob Banta y otros cinco generales de abogados enviaron una carta a 12 compañías, incluida la OpenAI, señalaron que si sus productos de IA se publicaran en los materiales dañinos de los niños, serían responsables.

Según Common Sense Media, aproximadamente el 72% de los adolescentes han utilizado compañeros de IA al menos una vez, una no fines de lucro que respalda la protección infantil. El grupo dice que alguien menor de 18 años no debe ser utilizado por los compañeros sociales de IA.

Jim Steer, el fundador y CEO de Common Sense Media, dijo: “La muerte de Adam es otro recordatorio destructivo de que en la era de la IA, el” movimiento rápido y rompiendo las cosas de la industria de la tecnología tiene un recuento de carrocería.

Las agencias de tecnología, incluida OpenAI, enfatizan las ventajas de la IA en la economía de California y expanden su asociación con la escuela para que más estudiantes tengan acceso a su equipo de IA.

Los legisladores de California están explorando formas de proteger a los jóvenes del riesgo elevado por las conversaciones y se enfrentan a los grupos de la industria técnica que han expresado preocupación por las libertades de expresión.

El Proyecto de Ley 243 del Senado, que ha despejado el Senado en junio y se encuentra en la Asamblea Legislativa, requiere “plataformas de chatabot complementarias” para implementar un protocolo para resolver suicidio, suicidio o autosuficiencia. Estos incluyen mostrar la resistencia al suicidio de los usuarios. Los operadores de estas plataformas también informarán a un compañero de chat de otros requisitos para informar un ideal suicida o un número de actividades con cualquier usuario.

Sen Steve Padilla (D-Chula Vista), quien lanza el proyecto de ley, dice que se pueden prevenir casos como Adam sin comprometerse con la innovación. Dijo que la ley se aplicaría a los chatbots por OpenAi y Meta.

“Queremos que las empresas estadounidenses, las empresas de California y los gigantes de la tecnología sean el líder mundial”, dijo. “Pero esta es la idea de que no podemos hacerlo correctamente, y no podemos hacerlo de una manera que nos proteja a los más vulnerables de nosotros, es algo malo”.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here