El Chatzpt, la compañía detrás del OpenAI, lanzó un nuevo control para padres para una cuenta adolescente el lunes, una familia de California presentó un caso que su chatbot alentó a su hijo a quitarse la vida.
A medida que los nuevos controles comienzan el lunes se implementan, los padres no pueden usar el Chatzipi, no para cerrar el modo de voz, que permite a los usuarios interactuar con los controles de chat y evitar que el historial de chat adolescente preserve el chatgpt. La otra opción evita el uso de datos adolescentes para abrir modelos.
“Los controles de los padres permiten a los padres vincularse a su cuenta con sus cuentas adolescentes y personalizar la configuración para experiencias seguras y aplicadas por edad” Blog Sobre el anuncio de nuevas características.
Los padres deben adjuntar su cuenta para lograr sus cuentas Control parentalEl
Según estos nuevos controles, los padres de cuentas dependientes reconocen síntomas potenciales si sus adolescentes pueden dañarse. Un equipo de expertos revisará los síntomas del problema y contactará a los padres por correo electrónico, mensajes de texto o advertencias de push móviles.
“Ningún sistema es perfecto, y sabemos que si no hay un peligro real, ocasionalmente podemos dar una alarma, pero creemos que es mejor actuar y advertir a un padre para que puedan tomar medidas en lugar de permanecer en silencio”, dijo Openii en una publicación de blog.
Si abierto no puede llegar a un padre en la próxima amenaza de la vida, está trabajando en formas de contactar directamente a las agencias de aplicación de la ley. Los padres necesitarán una cuenta de Chatzpt para acceder a estos nuevos controles.
Para configurarlo, un padre puede enviar una invitación a la configuración adolescente desde su cuenta, que el adolescente debe aceptar, luego los padres pueden manejar la experiencia de Chatzp adolescente desde su propia cuenta. Los adolescentes pueden invitar a un padre a conectarse.
Después de que los padres y los niños conectan sus cuentas, la cuenta de adolescentes se protegerá automáticamente automáticamente, incluidos el contenido gráfico, los desafíos virales, el sexo, el juego de rollo romántico o violento y los ideales de belleza extrema para ayudarlos a mantener sus experiencias administradas.
Estos cambios entran en la investigación regulatoria y pública mejorada sobre el uso de adolescentes de chatbots.
El año pasado, una madre de Florida se quejó en un caso federal que otro chattabot llamó Charachter.ai Su hijo de 14 años fue responsable del suicidio.
Lo acusó de no informarlo o ayudarlo cuando expresó sus pensamientos suicidas en los personajes virtuales de su hijo. Charachter.ai es una plataforma de chatbot Rolplay donde las personas pueden crear e interactuar con personajes digitales que imitan a las personas reales e imaginarias. Más familias presentaron el caso Charachter.Ai este año.
En agosto, el Adam Rhine de 16 años, alegó que Chatzipt le proporcionó sobre la estrategia de suicidio, en la que el adolescente solía suicidarse, Adam Chatzpt -4o usó una versión de pago de -4o, que alentó cuando expresó su cuidado por el apoyo profesional. Ya pudo evitar las medidas de seguridad que ya estaban en detalle para la historia de la protección que ya estaba escribiendo.
En septiembre, el director ejecutivo de OpenAI, Sam Altman, escribe que la compañía da prioridad a la “privacidad para los adolescentes y antes de la independencia”.
Las reglas de OpenAI prohíben a los usuarios menores de 13 años, que la compañía anunció el lunes que estaba creando un “sistema de pronóstico de edad” que predeciría si un usuario tenía menos de 18 años y aplicaba automáticamente la configuración aplicada con TIN.
Los legisladores de California han aprobado dos proyectos de ley de protección de botes de chat de IA que han planeado contra la industria de la tecnología.
El gobernador Gavin News Bills, el proyecto de ley legislativo 1064 y el Proyecto de Ley 243 del Senado están a mediados de octubre para su aprobación o rechazo.
Los grupos de defensa han señalado que los cambios más recientes en el OpenAI fueron un paso en la dirección correcta, pero la responsabilidad práctica requiere la ley.
“Reflejan un patrón amplio: solo después de la pérdida es que el público prometió a las empresas”, dijo Adam Billen, vicepresidente de Política Pública de AI, activista de los jóvenes consultores en nombre de la protección de la IA. “No necesitamos más promesas vacías; necesitamos responsabilidad que se incluya en la ley, con facturas como AB 1064.”
El escritor del personal de Times, Quinnie Wang, contribuyó a este informe.

















