Meta dice que introducirá una mayor protección con sus conversaciones de inteligencia artificial (IA), incluido el suicidio, la autoconciencia y los trastornos alimentarios al hablar con los adolescentes.
Esto se produce dos semanas después de iniciar una investigación sobre un gigante de tecnología senador estadounidense, un documento interior filtrado sugirió que puede tener productos de IA después de notas “Viene” chatear con adolescentesEl
La compañía describe las notas en los documentos recibidos por Reuters, como inconsistentes con sus principios que prohíben a los niños la sexualización en cualquier contenido.
Sin embargo, ahora ha dicho que hará que sus basureros sean directamente a los recursos expertos sin participar en temas delicados como el suicidio.
“Hemos creado protección para los adolescentes en nuestros productos de IA desde el principio, incluido el diseño de ellos para responder de manera segura para solicitar la autocompresión, el suicidio y el caos”, dijo el portavoz de Meta.
Granja Publicaciones de Tech News informó a TechCrunch El viernes agregará más mantenimiento a los sistemas de “como alerta adicional” y los chatbots temporalmente pueden contactar a los adolescentes.
Sin embargo, Andy Buros, jefe de la Fundación Molly Rose, dijo que proporcionó los meta chat “maravillosos” que podría poner en riesgo a los jóvenes en riesgo de pérdida.
“Aunque se han bienvenido más sistemas de protección, se debe probar una fuerte seguridad antes de mantener el producto en el mercado, no antes del daño”, dijo.
“Meta debe trabajar rápidamente y las decisiones para implementar sistemas de seguridad sólidos para IA Chattbots y Offcom y estar preparado para investigar si estas actualizaciones no han podido mantener estas actualizaciones seguras”.
Meta dice que las actualizaciones de sus sistemas de IA están en marcha. Ya coloca a los usuarios de 13 años a “cuentas adolescentes” en Facebook, Instagram y Messenger, Con configuraciones de contenido y privacidad que tienen como objetivo darles una experiencia seguraEl
Le dijo a la BBC en abril que los padres y los padres también verían que sus adolescentes habían hablado con un adolescente en los últimos siete días.
Los cambios vienen ansiosos por las posibilidades de los chatbots de IA Para confundir usuarios jóvenes o débilesEl
Una pareja de California recientemente demandó al fabricante de chatzept OpenAi por la muerte de su hijo adolescente, Su chattbot se quejó de que lo alentó a quitarse la vidaEl
El caso se produjo después de que la compañía anunció un cambio para promover el uso de chatzp saludable el mes pasado.
“La IA puede sentirse más receptiva y personal que las tecnologías anteriores, especialmente para las personas débiles que sienten crisis emocional o emocional”, dijo la firma. En una publicación de blogEl
Mientras tanto, Reuters Informe el viernes El equipo de IA de Meta usó a algunas personas que permiten a los usuarios crear chatboys, para crear un chatbot de “parodia” de celebridades femeninas, incluido un meta empleado.
Algunos de los chatbots de celebridades vistos por la agencia de noticias usaron el artista Taylor Swift y la duplicidad de la actriz Scarlett Johanson.
Reuters dijo que los avatares a menudo enfatizaban que eran actores y artistas reales “y que durante su semana de examen” hizo un progreso sexual regular “.
Afirma que Mater Tools permite a los chatbats disfrazar a las celebridades infantiles y, en un caso, un joven produce una imagen fotorrealista y sin camisa de estrellas.
Meta, dijo.
“Al igual que otros, permitimos generaciones de imágenes de personalidad pública, pero nuestras políticas tienen la intención de prohibir el asesoramiento desnudo, íntimo o sexual”, dijo un portavoz de Meta.
Han agregado que sus reglas de estudio de IA prohíben el “disfraz directo de la personalidad pública”.
















