Los legisladores de California quieren acercarse al gobernador Gavin News para aprobar los proyectos de ley que han aprobado para hacer que los chattbots de inteligencia artificial sean seguros. Sin embargo, teniendo en cuenta si el gobernador firmará la ley sobre la ley, se ha enfrentado a una barrera familiar: las objeciones de las agencias de tecnología que dicen que las nuevas restricciones evitarán la innovación.
Las compañías de California han gastado varios cientos de miles de millones de dólares para estar por delante del líder mundial y el bote de chat más poderoso de la IA. Los padres y legisladores de velocidad rápida están preocupados de que las chatties se enfrenten al contenido de autosuficiencia y otra pérdida de riesgo de la salud mental de los niños.
Los chattabots se quejan de que los padres se alentaron a dañar a sus adolescentes antes de morir como resultado del suicidio. También presionaron para proteger más.
Los llamados a un mayor control de la IA han revisado la capital de todo el país y en los diferentes estados. Incluso el “Plan de Acción de AI” de la administración Trump propuso cortar cintas rojas para alentar el desarrollo de la IA, los legisladores y reguladores de ambos lados están lidiando con las preocupaciones de la protección de los niños en torno a Chatboat, lo que responde a las preguntas o actúa como discípulos digitales.
Los legisladores de California han aprobado dos facturas de protección de botes de chat de IA este mes, lo que ha intentado contra la industria de la tecnología. La noticia depende de su aprobación o rechazo hasta mediados de octubre.
La decisión del alto bibber mantiene al gobernador en un lugar complejo. Los políticos y las agencias de tecnología también quieren asegurar al público que están protegiendo a los jóvenes. Al mismo tiempo, las compañías de tecnología están tratando de expandir el uso del chatbut en el aula, y las nuevas restricciones a las que se han opuesto a que dicen que han ido demasiado lejos.
Resistencia para prevenir el suicidio y consultar la crisis
Si usted o alguien que conoce está luchando con el pensamiento suicidio, obtenga ayuda de un profesional y llame al 9-8-8. La primera crisis de salud mental de tres dígitos en los Estados Unidos conectará la línea directa de 988 Calchers con consultores capacitados de salud mental. Para llegar al texto del “hogar” en 741741 en los Estados Unidos y Canadá La línea de texto de crisisEl
Mientras tanto, si News se convirtió en presidente en 2021, podría necesitar más apoyo financiero de los empresarios de tecnología rica. El 22 de septiembre, News AI promovió la asociación estatal con las agencias de tecnología en el esfuerzo de IA y cómo la industria tecnológica alentó a la economía de California, calificó el estado un “foco de innovación estadounidense”.
Ella ha vetado la Ley de Protección de AI en el pasado, incluido un Factura El valle de Silicon que dividió la industria de la tecnología el año pasado porque el gobernador pensó que le dio al público una “idea falsa”. Sin embargo, también indicó que estaba tratando de resolver las preocupaciones de seguridad y equilibrar a las agencias de tecnología de California en la IA.
“Tenemos un sentido de responsabilidad y responsabilidad para liderar, por lo que apoyamos el riesgo, pero no imprudente”, dijo Newsm en A. Discusión En un evento de la Iniciativa Global Clinton el miércoles con el ex presidente Clinton.
Se han enviado dos proyectos de ley al Gobernador – Proyecto de Ley de la Asamblea 1064 y el Proyecto de Ley 243 del Senado – apuntan a asegurar el bote de chat de IA pero enfrentan una oposición estricta a la industria de la tecnología. No está claro si el gobernador firmará el proyecto de ley. Su oficina se negó a comentar.
AB 1064 es un comportamiento dañino “pronosticable”, como alentar a un niño a ser consciente de sí mismo, violento o caótico para que un niño sea hecho al hacer chatbots complementarios a un residente de California menor de 18 años.
SB23 requiere que los operadores de chatabs colaborativos informen a los usuarios específicos que los asistentes virtuales no son humanos.
Según la factura, los operadores de botes de chat deben tener un método para prevenir y mantener el suicidio o el producto de autosuficiencia, como los usuarios referidos a la línea directa de suicidio o la línea de texto de crisis.
Necesitan notificar a los usuarios menores cada tres horas para tomar un descanso y el chatbot no es humanos. Los operadores deben aplicar “medidas razonables” para evitar que los colegas creen materiales sexualmente explícitos.
Tech Lobing Group Technnets, cuyos miembros están incluidos en Open, Meta, Google y otros, dicen en un comunicado que está “de acuerdo con las intenciones de facturas”, pero se oponen.
AB 1064 “impone una restricción vaga e ineficaz que crea riesgos legales, mientras que los estudiantes se desintegran de valiosos equipos de aprendizaje de IA”, dice Robert Boycin, director ejecutivo de California y South West, en un comunicado. “SB243 establece reglas más claras sin bloquear el acceso, pero hemos seguido preocupando por su enfoque”.
Un portavoz del meta dijo que los “sistemas AB 1064 de la compañía están preocupados por las consecuencias involuntarias”. La compañía de tecnología ha introducido un nuevo Súper paquete La agencia que es demasiado pesada para luchar contra el control de la IA estatal y está presionando para un control de más padres sobre cómo los niños usan la IA, Eje Informe el martes.
Oponentes liderados por la industria de la computadora y la comunicación. AB 1064 está planeando agresivamente, señalando que puede decidir si las empresas de California enfrentan más casos y si quieren continuar trabajando en el estado.
Los grupos de defensa, incluidos los medios de comunicación de sentido, son una falta de fines de lucro que patrocina AB 1064 y sugiere que los menores no deben ser utilizados por AI Companions, pidiendo que las noticias firmen la ley en este proyecto de ley. Atti de California. El general Rob Bonta también apoya el proyecto de ley.
La Electronic Frontier Foundation ha dicho que SB23 es muy amplio y que entrará en problemas de conversación gratuita.
Muchos grupos, incluidos los medios de comunicación comunes y la supervisión tecnológica de California, han eliminado su apoyo a SB243 después del cambio en el proyecto de ley, que dicen que la seguridad se ha debilitado. Obtenga notificaciones específicas que se limiten a algunos cambios e incluyan descuentos para asistentes virtuales utilizados en casquillos de chat específicos y altavoces inteligentes en los videojuegos.
Los legisladores que presentaron la Ley de Protección de Chatbot querrían firmar ambos proyectos de ley del gobernador, argumentando que ambos podrían “trabajar”.
Sen Steve Padilla (D-Chula Vista), quien introdujo SB243, dijo que incluso con los cambios que todavía piensa que las nuevas reglas harán que la IA sea segura.
“Tenemos una tecnología que tiene un buen potencial, es increíblemente fuerte, pero increíblemente desarrollado rápidamente, y no podemos perder una ventana para el suministro de mantenimiento de sentido común aquí para proteger a las personas”, dijo. “Estoy feliz con dónde está el proyecto de ley”.
La asamblea Rebecca Bauer-Kahan (D-Arinda), que fue co-condó a AB 1064, dijo que sus proyectos de ley tienen un equilibrio de la ventaja de AI mientras protegen los peligros contra los peligros.
“Queremos asegurarnos de que cuando los niños estén involucrados en un bote de chat que no está creando ningún apego sensible poco saludable, liderando su suicidio, el caos, sabemos que cualquier cosa es perjudicial para los niños”.
Durante la sesión de la legislatura, los legisladores escucharon de los padres de sus hijos perdieron a sus hijos. AB 1064 destaca los dos casos de alto perfil: un chatzipt de San Francisco está en contra de la apertura de la apertura y el otro está en contra de la tecnología de personajes, el desarrollador de personajes de la plataforma ChatBot.
Personaje. Una plataforma donde las personas pueden crear e interactuar con personajes digitales que dupliquen personas reales e imaginarias. El año pasado, la madre de Florida, Megan García, se quejó en un caso federal de que el personaje. Los chatbots de Eye dañaron a su hijo Selita Setzer III y alegó que la compañía no lo informó o lo ayudó al expresar pensamientos suicidas sobre los personajes virtuales.
Más familias han demandado a la organización este año. Sí Personaje. El portavoz dice que son muy cuidadosos con la protección del usuario y “alienta a los legisladores a las manualidades adecuadamente que promueven la protección del usuario y dan suficiente espacio para la innovación y la libre expresión”.
En agosto, el Adam Rhine de California demandó, alegó que Chatzipt proporcionó información de adolescentes sobre el método de suicidio, en el que los adolescentes se suicidaron
Openi dice que está fortaleciendo la protección y planea revelar los controles de los padres. Su director ejecutivo, Sam Altman, escribe en una publicación de blog de septiembre que la compañía cree que se necesita la “protección significativa” de los menores y la compañía da “privacidad para los adolescentes y la protección antes de la independencia”. La compañía se negó a comentar sobre la factura de chat de California AI.
Para los legisladores de California, el reloj está marcando.
“Estamos haciendo nuestro mejor esfuerzo”, dijo Bauer-Kahan. “” Ya hemos visto a los niños perdiendo sus vidas en AI me dice que no nos estamos moviendo lo suficientemente rápido “.















