Home Economía Los trabajadores de Kaiser lanzan la guerra contra la IA, protestando por...

Los trabajadores de Kaiser lanzan la guerra contra la IA, protestando por posibles pérdidas de empleo y daños a los pacientes

26

Los trabajadores de uno de los sindicatos más poderosos de California están formando un frente temprano en la batalla contra la inteligencia artificial, advirtiendo que podría acabar con puestos de trabajo y dañar la salud de las personas.

Como parte de sus negociaciones en curso con su empleador, los trabajadores de Kaiser Permanente han rechazado el uso de inteligencia artificial por parte del gigante proveedor de atención médica. Están creando demandas en torno a este tema y otros, utilizando piquetes y huelgas de hambre para ayudar a persuadir a Kaiser a utilizar esta poderosa tecnología de manera responsable.

Kaiser dice que la inteligencia artificial podría salvar a los empleados de tareas tediosas y que requieren mucho tiempo, como tomar notas y papeleo. Los trabajadores dicen que podría ser el primer paso hacia una pendiente resbaladiza que conduce a despidos y daños a la salud de los pacientes.

“Están dibujando un mapa que reduciría su necesidad de trabajadores y médicos humanos”, dijo Ilana Marcucci-Morris, trabajadora social clínica autorizada y parte del equipo negociador del Sindicato Nacional de Trabajadores de la Salud, que lucha por más protecciones contra la IA.

La terapeuta de 42 años con sede en Oakland dice que sabe que la tecnología puede ser útil, pero advierte que las consecuencias para los pacientes han sido “graves” cuando la IA comete errores.

Kaiser dice que la IA puede ayudar a los médicos y empleados a centrarse en atender a los miembros y pacientes.

“La IA no reemplaza la evaluación y la atención humana”, dijo la portavoz de Kaiser, Candice Lee, en un correo electrónico. “La inteligencia artificial tiene un potencial significativo para beneficiar la atención médica al respaldar mejores diagnósticos, mejorar las relaciones entre el paciente y el médico, optimizar el tiempo del médico y garantizar la equidad en las experiencias de atención y los resultados de salud al abordar las necesidades individuales”.

Los temores sobre la IA están sacudiendo industrias en todo el país.

Los asistentes administrativos médicos se encuentran entre los más expuestos a la IA, según un estudio reciente realizado por Brookings y el Centro para la Gobernanza de la IA. Los asistentes hacen el tipo de trabajo en el que la IA está mejorando. Mientras tanto, es menos probable que tengan las habilidades o el apoyo necesarios para acceder a nuevos trabajos, encontró el estudio.

Hay millones de otros empleos que se encuentran entre los más vulnerables a la IA, como los trabajadores de oficina, los agentes de ventas de seguros y los traductores, según el investigación lanzado el mes pasado.

En California, los sindicatos instaron esta semana al gobernador Gavin Newsom y a los legisladores a aprobar más leyes para proteger a los trabajadores de la IA. La Federación de Sindicatos de California ha patrocinado un paquete de proyectos de ley para abordar los riesgos de la IA, incluidas la pérdida de empleos y la vigilancia.

La tecnología “amenaza con destruir los derechos de los trabajadores y provocar una pérdida generalizada de empleos”, dijo el grupo en una carta conjunta con los líderes estatales de la AFL-CIO.

Kaiser Permanente es la empresa privada más grande de California, con casi 19.000 médicos y más de 180.000 empleados en todo el estado. Tiene una presencia significativa en Washington, Colorado, Georgia, Hawaii y otros estados.

El Sindicato Nacional de Trabajadores de la Salud, que representa a los empleados de Kaiser, ha estado entre los primeros en reconocer y responder a la invasión de la IA en el lugar de trabajo. Dado que se ha negociado para mejorar los salarios y las condiciones laborales, el uso de la IA también se ha convertido en un nuevo punto importante de discusión entre los trabajadores y la dirección.

Kaiser ya utiliza software de inteligencia artificial para transcribir conversaciones y tomar notas entre los trabajadores de la salud y los pacientes, pero a los terapeutas les preocupa la privacidad al grabar comentarios altamente sensibles. La empresa también utiliza IA para predecir cuándo los pacientes hospitalizados podrían enfermarse más. Ofrece aplicaciones de salud mental para suscriptores, incluida al menos una con un chatbot de IA.

El año pasado, los trabajadores de salud mental de Kaiser iniciaron una huelga de hambre en Los Ángeles para exigir que el proveedor de atención médica mejorara sus servicios de salud mental y atención al paciente.

El año pasado, el sindicato ratificó un nuevo contrato que cubre a 2.400 empleados de salud mental y medicina de adicciones en el sur de California, pero las negociaciones continúan para Marcucci-Morris y otros trabajadores de salud mental en el norte de California. Quieren que Kaiser lo haga promete que la IA se utilizará únicamente para ayudar, pero no para reemplazar, a los trabajadores.

Kaiser dijo que todavía está negociando con el sindicato.

“No sabemos lo que nos depara el futuro, pero nuestra propuesta nos comprometería a negociar si hay cambios en las condiciones laborales debido a las nuevas tecnologías de inteligencia artificial”, dijo Lee.

Los trabajadores de la salud dicen que les preocupa que lo que ya están viendo pueda suceder cuando las personas con problemas de salud mental interactúan demasiado con los chatbots de IA.

Los chatbots de IA, como ChatGPT de OpenAI, no tienen licencia ni están diseñados para ser terapeutas y no pueden reemplazar la atención profesional de salud mental. Aún así, algunos adolescentes y adultos han recurrido a los chatbots para compartir sus luchas personales. La gente ha utilizado Google durante mucho tiempo para tratar problemas de salud física y mental, pero la IA puede parecer más poderosa porque ofrece lo que parece un diagnóstico y una solución con confianza en una conversación.

Los padres cuyos hijos se suicidaron después de hablar con chatbots demandan a las empresas de inteligencia artificial de California Carácter.AI y OpenAI, alegando que las plataformas proporcionaban contenido que dañaba la salud mental de los jóvenes y discutían métodos de suicidio.

“No están entrenados para responder como lo haría un humano”, dijo el Dr. Dustin Weissman, presidente de la Asociación de Psicología de California. “Muchos de estos matices pueden pasar desapercibidos y, debido a eso, podrían conducir a resultados catastróficos”.

Los proveedores de atención médica también se han enfrentado a demandas por el uso de herramientas de inteligencia artificial para grabar conversaciones entre médicos y pacientes. En noviembre, se presentó una demanda en el Tribunal Superior del Condado de San Diego. Cuidado de la salud agudo utilizó un software de toma de notas de IA llamado Abridge para grabar ilegalmente conversaciones entre médicos y pacientes sin consentimiento.

Sharp HealthCare dijo que protege la privacidad del paciente y no utiliza herramientas de inteligencia artificial durante las sesiones de terapia.

Algunos médicos y clínicos de Kaiser, incluidos los terapeutas, utilizan Abridge para tomar notas durante las visitas de los pacientes. Kaiser Permanente Ventures, su división de capital riesgo, ha invertido en Abridge.

El proveedor de atención médica dijo: “Las decisiones de inversión están claramente separadas de otras decisiones tomadas por Kaiser Permanente”.

Aproximadamente la mitad de los profesionales de salud conductual de Kaiser en el norte de California dijeron que se sienten incómodos al introducir herramientas de inteligencia artificial, incluido Abridge, en su práctica clínica, según su sindicato.

El proveedor dijo que sus trabajadores revisan las notas generadas por IA para verificar su precisión y obtener el consentimiento del paciente, y que las grabaciones y transcripciones están encriptadas. Los datos se “almacenan y procesan en entornos aprobados y compatibles durante un máximo de 14 días antes de eliminarse permanentemente”.

Los legisladores y profesionales de la salud mental están explorando otras formas de restringir el uso de la IA en la atención de la salud mental.

La Asociación Psicológica de California. el esta tratando de salir adelante legislación para proteger a los pacientes de la IA. Se unió a otros para apoyar un proyecto de ley que requeriría un consentimiento claro y por escrito antes de grabar o transcribir la sesión de terapia de un cliente.

El proyecto de ley también prohíbe a personas o empresas, incluidas aquellas que utilizan IA, ofrecer terapia en California sin un profesional autorizado.

El senador Steve Padilla (D-Chula Vista), quien presentó el proyecto de ley, dijo que se necesitan más reglas sobre el uso de la IA.

“Esta tecnología es poderosa. Está en todas partes. Está evolucionando rápidamente”, afirmó. “Eso significa que tienes una ventana limitada para asegurarnos de que entremos y coloquemos las barandillas correctas en su lugar”.

El Dr. John Torous, director de psiquiatría digital del Centro Médico Beth Israel Deaconess, dijo que la gente está utilizando chatbots de IA para obtener consejos sobre cómo abordar conversaciones difíciles, no necesariamente para reemplazar la terapia, pero aún se necesita más investigación.

Está trabajando con la Alianza Nacional sobre Enfermedades Mentales para desarrollar puntos de referencia que permitan a las personas comprender cómo responden las diferentes herramientas de inteligencia artificial a la salud mental.

Por supuesto, algunos usuarios encuentran valor e incluso lo que parece compañerismo en las conversaciones con chatbots sobre su salud mental y otros temas.

De hecho, algunos dicen que los robots de IA les han facilitado el acceso a consejos de salud mental y les han ayudado a resolver pensamientos y sentimientos en un estilo conversacional que, de otro modo, requeriría una cita con un terapeuta y cientos de dólares.

Es probable que alrededor del 12% de los adultos utilicen chatbots de IA para la atención de la salud mental en los próximos seis meses, y el 1% ya lo está haciendo, según una encuesta de NAMI/Ipsos de noviembre de 2025.

Pero para los trabajadores de la salud mental como Marcucci-Morris, la IA por sí sola no es suficiente.

“La IA no es la salvadora”, afirmó.

Enlace fuente