Instagram, una plataforma de redes sociales popular entre los jóvenes, dijo el jueves que alertará a los padres si sus adolescentes buscan repetidamente términos relacionados con el suicidio o la autolesión.
“Nuestro objetivo es capacitar a los padres para que intervengan si las búsquedas de sus hijos sugieren que pueden necesitar apoyo”, dijo la compañía en un entrada al blog.
Los padres recibirán una notificación por mensaje de texto, correo electrónico o WhatsApp. También tendrán la opción de ver recursos para ayudarles a mantener conversaciones sensibles con su hijo adolescente.
Recursos de prevención del suicidio y asesoramiento de crisis
Si tú o alguien que conoces está luchando con pensamientos suicidas, pide ayuda a un profesional y llama al 9-8-8. La primera línea de atención telefónica de tres dígitos 988 de Estados Unidos para crisis de salud mental conectará a las personas que llaman con consejeros de salud mental formados. Envía “HOME” al 741741 a EE.UU. y Canadá para llegar a Línea de texto de crisis.
La medida es el último ejemplo de cómo las empresas tecnológicas responden a las preocupaciones de padres, políticos y grupos de defensa que no están haciendo lo suficiente para proteger a los jóvenes del contenido nocivo.
En Los Ángeles se está celebrando un juicio histórico sobre si empresas tecnológicas como Instagram y YouTube pueden ser consideradas responsables por presuntamente promocionar un producto nocivo y adictar a los usuarios a sus plataformas.
El juicio incluyó el testigo del jefe de Instagram Adam Mosseri, quien dijo al tribunal que la empresa está intentando estar “lo más segura posible pero también censurar lo menos posible”.
Las preocupaciones de seguridad se han intensificado a medida que los adolescentes, algunos que se han suicidado, recurren a los chatbots de IA para compartir algunos de sus pensamientos más oscuros.
Instagram tiene un asistente de IA en su barra de búsqueda. Meta, propietario de Instagram, está creando alertas similares si los adolescentes intentan tener ciertas conversaciones sobre el suicidio y la autolesión con su asistente de IA.
Meta tiene reglas contra la publicación de contenido que fomente el suicidio o la autolesión, pero permite que la gente discuta los temas. La empresa matriz también ha tomado medidas contra millones de contenidos de suicidio, autolesiones y trastornos alimenticios, muestran los informes de transparencia de Meta.
Sin embargo, algunos padres y adolescentes han alegado en las demandas que los jóvenes han visto contenido de autolesión en Instagram.
Aproximadamente el 63% de los adolescentes estadounidenses, de entre 13 y 17 años, utilizan Instagram, según una encuesta del Pew Research Center publicada en diciembre. Más de la mitad de los adolescentes estadounidenses también utilizan chatbots para buscar información, según una encuesta independiente publicada esta semana.
Instagram, que cuenta con más de 3.000 millones de usuarios activos mensuales, dijo que la mayoría de los adolescentes no buscan contenidos de suicidio o de autolesión en Instagram. Bloquea las búsquedas y dirige a las personas a recursos de prevención del suicidio. Instagram dijo que las alertas forman parte de sus cuentas para adolescentes, que incluyen límites a los que los jóvenes pueden enviar mensajes, recordatorios de límite de tiempo y otras funciones.
Los padres que utilizan estas herramientas para vigilar a sus adolescentes empezarán a recibir alertas en Estados Unidos, Reino Unido, Australia y Canadá la próxima semana. Después se desplegarán en otras regiones a finales de este año.
Las plataformas de redes sociales han estado tomando otras medidas para mejorar la seguridad. Ese mes, Meta, TikTok y Snap acordaron ser valorados por sus esfuerzos de seguridad para adolescentes como parte de un nuevo programa de la Coalición para la salud mental.















