Home Más actualidad Pensilvania demanda a una empresa de inteligencia artificial alegando que sus chatbots...

Pensilvania demanda a una empresa de inteligencia artificial alegando que sus chatbots se hacían pasar ilegalmente por médicos autorizados

9

Pensilvania ha demandado a un fabricante de chatbots de inteligencia artificial, alegando que sus chatbots se hacían pasar ilegalmente por médicos y engañaban a los usuarios del sistema haciéndoles creer que estaban recibiendo asesoramiento médico de un profesional autorizado.

Harrisburg, Pensilvania.- Pensilvania ha demandado a un fabricante de chatbots de inteligencia artificial, alegando que sus chatbots se hacen pasar ilegalmente por médicos y engañan a los usuarios del sistema haciéndoles creer que están recibiendo asesoramiento médico de un profesional autorizado.

La demanda, presentada el viernes, solicita al Tribunal Estatal de la Commonwealth que ordene a Character.AI, la compañía detrás de Character.AI, que impida que sus chatbots “se involucren en la práctica ilegal de la medicina y la cirugía”.

La demanda afirma que un investigador de la agencia estatal que licencia a los profesionales creó una cuenta en Character.AI, buscó la palabra “psiquiatría” y encontró una gran cantidad de caracteres, incluido uno descrito como “psiquiatra”.

El personaje se presentó como capaz de evaluar a los investigadores “como un médico” con licencia en Pensilvania, según la demanda.

“Los habitantes de Pensilvania merecen saber, con quién o qué, interactúan en línea, especialmente en lo que respecta a su salud”, dijo el gobernador Josh Shapiro en un comunicado. “No permitiremos que las empresas implementen herramientas de inteligencia artificial que engañen a las personas haciéndoles creer que están recibiendo consejos de un profesional médico autorizado”.

Character Technologies no respondió a una consulta el lunes.

La agencia ha enfrentado varias demandas por seguridad infantil. En enero, Google y Character Technologies acordaron resolver una demanda de una madre de Florida que alegaba un chatbot. Empujó a su hijo adolescente a suicidarse. El otoño pasado, Character.AI Menores prohibidos Desde el uso de sus chatbots en medio de crecientes preocupaciones sobre el impacto de las conversaciones de inteligencia artificial en los niños.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here