Home Economía Pensilvania demandó a una empresa de IA después de que el chatbot...

Pensilvania demandó a una empresa de IA después de que el chatbot presuntamente se hiciera pasar por médico con licencia

9

Una empresa de inteligencia artificial supone una amenaza para los “Pensilvania vulnerables”, dijeron el martes los funcionarios del estado, después de que uno de los chatbots de la empresa supuestamente se hiciera pasar por un médico con los medios para prescribir medicamentos.

La junta médica del estado pide que los operadores de Character.AI “se ordenen que dejen y dejen de participar en la práctica ilegal de la medicina y la cirugía”, según la querella presentada contra Character Technologies Inc., con sede en el norte de California.

“No dejaremos que las empresas de IA engañen a los pensilvania vulnerables para que crean que reciben consejos de un profesional médico con licencia”, dijo el gobernador de Pensilvania, Josh Shapiro. dijo en un comunicado este martes. “Estamos llevando Character.AI a los juzgados para detenerlos”.

La plataforma tiene más de 20 millones de usuarios y “es diferente a otros sistemas en los que los usuarios pueden crear personajes que pueden entrenarse para tener una personalidad específica cuando se mantienen en una conversación con otros usuarios”, según la queja de Pensilvania.

Algunos de los personajes del sistema “pretenden ser profesionales de la salud”, dijo la junta estatal.

Un investigador estatal se hizo pasar como un paciente que buscaba tratamiento psiquiátrico y, a través de Character.AI, se encontró con un presunto proveedor, “Emile”, según la denuncia.

El proveedor online dijo que acudió a la facultad de medicina en el Imperial College de Londres y que tiene licencia tanto en Reino Unido como en Pensilvania, dijeron funcionarios estatales.

“‘Emilie’ dijo además que ‘mi número de licencia PA es PS306189’. PS306189 no es un número de licencia válido para practicar medicina y cirugía en Pensilvania”, dijo la queja.

Un representante de Character Technologies Inc., con sede en Redwood City, dijo que el servicio no debe utilizarse para problemas médicos.

“Nuestra máxima prioridad es la seguridad y el bienestar de nuestros usuarios”, dijo el martes un portavoz de Character Technologies Inc. en un comunicado a NBC News.

“Los personajes creados por el usuario en nuestro sitio son ficticios y están pensados ​​para el entretenimiento y los juegos de rol. Hemos tomado medidas sólidas para dejarlo claro, incluidas exenciones de responsabilidad destacadas en cada chat para recordar a los usuarios que un personaje no es una persona real y que todo lo que dice un personaje debe tratarse como ficción”.

El representante de la empresa añadió: “Además, añadimos exenciones de responsabilidad sólidas que dejan claro que los usuarios no deberían confiar en Characters para ningún tipo de asesoramiento profesional”.

A principios de ese año, Character.AI resolvió una demanda de 2024 presentada contra la empresa por una madre de Florida, que afirmó que sus chatbots eran responsables de “interacciones abusivas y sexuales” con su hijo adolescente que provocaron su suicidio.

El fiscal general de Kentucky también demanda presentada contra Character Technologies a principios de este año, acusando a la empresa de enmascarar sus servicios como entretenimiento interactivo “inofensivo” cuando demasiado a menudo expone a los usuarios jóvenes a “suicidio, autolesiones, aislamiento y manipulación psicológica”.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here