Opina dice que capacitará a Chatzipt para identificar los signos de crisis mental porque un caso se ha quejado de que suicidarse este año depende del chatbot para el consejo de un adolescente.
ChatzPT recibirá capacitación para identificar y responder a la intención del suicidio, incluso en una larga conversación que los usuarios pueden aflojar su protección y proporcionar una respuesta dañina, compañía de tecnología Dice martesEl
El mismo día, Operai y su director ejecutivo Sam Altman afirmaron contra los padres de Adam Rhine, de 16 años, que Chatzipt lo ayudó a planificar su muerte.
“Hemos aumentado nuestra profunda simpatía por la familia Rhine en este momento difícil y revisando la presentación”, dijo la BBC, portavoz de OpenAi.
Según el caso de la BBC, un estudiante de California se quitó la vida en abril después de discutir el suicidio con el chat de la inteligencia artificial (IA) durante varios meses. Sus padres alegaron que el chatbot había legalizado el pensamiento suicida de su hijo y dio información detallada sobre que podía dañarse.
A medida que aumenta el uso de la IA, algunos usuarios han vuelto a los chatbots para el asesoramiento y el entrenamiento de la vida, así como cosas como escribir y codificar, dijo Openai en la publicación del blog, que no aborda el caso directamente.
“A veces enfrentamos a las personas en una grave crisis mental y emocional”, lo agregó.
“Sin embargo, las personas que usan el Chatzipti en medio de una intensa crisis son eventos desgarradores recientemente que nos pesan y creemos que es importante compartir más ahora”.
La granja con sede en San Francisco enumeró las protecciones existentes construidas en su bote de chat, así como cambios planificados.
La compañía ha dicho que introducirá nuevos controles a los padres para supervisar el uso del chatzp de sus hijos.