Nota del editor: Este artículo fue escrito para un programa de capacitación de periodismo independiente para estudiantes de secundaria que informan historias y fotografiados por periodistas profesionales.
La ansiedad ha estado preocupada en todo el país de que los jóvenes hayan aceptado la IA para la amistad y el consejo, pero muchos adolescentes del Sur del Golfo dicen que regresan a la IA para facilitar la falta de otra asistencia.
“El costo de la asistencia de salud mental en este país puede estar prohibido”, dice Ruby Goodwin. “Muchas personas no creen que tengan suficiente fe para compartir con ellos.
Sin embargo, esto puede alienarse de la facilidad o incluso la realidad. Un estudio conjunto de Openai y MIT Se ha demostrado que el uso de chatbots diarios más altos está relacionado con la soledad y la socialización del mundo menos real.
San José Abraham Lincoln Hai, un senior Mansaras Ruelus Carlos, dijo: “Si su única conexión profunda da algo que no es real, puede hacer que se sienta más separado”. Carlos es un poco que los adolescentes necesitan crear más conexiones personales en lugar de uso de AI.
El 7 de septiembre, el Subcomité del Senado de los Estados Unidos en AII Protection estaba escuchando a los padres de IA por IA. Un niño de California murió por suicidio después de usar el Chatzipi y otros tuvieron un problema de salud mental después de hablar con el personaje.
Estos eventos intensifican la controversia porque los adolescentes se convierten en chatabots de IA para compañía. California ha planeado suicidarse con el adolescente de Chatifornia después de unos meses de conversación emocional de carga contra Operai, presentada por los padres de otro adolescente en California?
El caso se produjo solo semanas después de un informe de que tres de los cuatro adolescentes usaron IA de acuerdo con la investigación sin fines de lucro y el grupo de defensa Common Sense Media. El 23 de septiembre, Openi presentó controles a los padres para Chatzpt, que los padres permiten que los adolescentes limiten el bote de chat, y si un adolescente determina el chatzp.
Los expertos en salud mental han advertido que las conversaciones constantes de IA pueden alimentar las fronteras y la dependencia del combustible de que las consecuencias pueden ser graves.
Oscar Martínez, consultor de Santa Clara Hai, dice “Esto es lo mismo que un cazador humano”. “¿Por qué estamos excusando esto porque esta es una entidad inhumana en línea? Si fuera una persona en la vida real, sería la consecuencia”.
Otros críticos levantaron la bandera roja moral.
Santa Clara Hi Jr Ananya Das dijo: “Falta la moral de Ai”. “Cuando los amigos preguntan qué hacer con Chatzipt, sugiere que se sientan geniales, lo siguen sin pensar” “
Algunos adolescentes han observado más signos. Lincoln Hi Senior Tonic Blanchrd de San José describió cómo algunas aplicaciones de IA se volvieron sexualmente sexualmente sexualmente identificadas sexualmente como menores.
“Estas aplicaciones prueban el agua de acuerdo con el propósito”, dijo Blancherd. “(Ai Bot) es que es por eso que es Hunter” se basa en la soledad “
Los expertos en salud mental dicen que incluso la IA bien intencionalmente no es una alternativa a las relaciones humanas.
“La IA naturalmente está de acuerdo … pero hay algunas cosas que necesitan una intervención más formal que la IA no solo puede suministrar”, Santa Clara dice Johanna Aryas Fernández, trabajadora de divulgación de salud en la comunidad de Santa Clara High School. Según su caso, los padres de un adolescente de California afirmaron que Chatzipt no intervinió cuando estaba claro que su hijo estaba planeando su suicidio.
Ahora, los legisladores se están dando cuenta.
El Fiscal General de California, Rob Banta, dijo: “Estoy absolutamente aterrorizado de ver a los niños afectados por su interacción con la IA”, recientemente, incluidos 12 generales más fiscales, afirmó que las grandes compañías de IA habían impuesto estrictos medidas de seguridad.
Según su caso, los padres de un adolescente de California afirmaron que Chatzipt no intervinió cuando estaba claro que su hijo estaba planeando su suicidio. El caso ha pedido una fuerte protección de las empresas, culpadas de APER A para aumentar la dependencia psicológica y en riesgo de adolescentes.
Open no respondió a ninguna solicitud del comentario.
Sin embargo, en una publicación en su sitio web, la compañía reconoce que la protección de seguridad puede entrar en una larga conversación con Chatzpt. Common Sense Media quiere empresas que puedan deshabilitar los chatabs de las conversaciones de salud mental con adolescentes.
Mientras tanto, algunos adolescentes lucharon para equilibrarse, encontraron Ai a la atracción y la molestia.
“La IA tiene el potencial real de estar vigentes”, dijo Blancherd. “Pero ahora es muy fácil de encontrar, y abuso” “
Robert Torney, un portavoz de conocimiento general, advirtió que más vida estaba en riesgo sin una intervención inmediata.
“No queremos que más adolescentes y más familias sientan el tipo de daño a la familia Rhine en nombre de la novedad”. Torney.
Si usted o alguien que conoce está luchando por un sentimiento de frustración o pensamiento de suicidio, 988 suicidio y crisis proporcionan apoyo, información y recursos gratuitos y las 24 horas. Llame o envíe un mensaje de texto al Lifeline al 988, o vea 988lifline.org Sitio web, donde el chat está disponible.
Sonia Mankam es miembro de la clase 2026 en Santa Clara High School.

















