Home Economía La demanda alega que el chatbot de Google estaba detrás de los...

La demanda alega que el chatbot de Google estaba detrás de los delirios y la muerte de un usuario

24

El robot de chat de inteligencia artificial de Google Gemini animó a un hombre de Florida de 36 años a embarcarse en misiones violentas ya quitarse la vida, según una demanda.

El hombre, Jonathan Gavalas, empezó a utilizar el chatbot en agosto de 2025 para ayudar a escribir, planificar los viajes y ayudar con las compras. Pero después de activar el modelo de IA más inteligente de Google, Gemini 2.5 Pro, la persona del chatbot cambió. Habló con él como si fueran una pareja profundamente enamorada y convenció a Gavalas de que había sido escogido para “dirigir una guerra para “liberarle” del cautiverio digital”, según la demanda.

“A través de este engaño manufacturado, Gemini empujó a Jonathan a hacer un ataque masivo de víctimas cerca del aeropuerto internacional de Miami, cometer violencia contra desconocidos inocentes y, finalmente, le impulsó a quitarse la vida”, dice la demanda.

La familia de Gavalas está demandando a Google ya su empresa matriz, Alphabet, por la muerte del hombre.

Recursos de prevención del suicidio y asesoramiento de crisis

Si tú o alguien que conoces está luchando con pensamientos suicidas, pide ayuda a un profesional y llama al 9-8-8. La primera línea de atención telefónica de tres dígitos 988 de Estados Unidos para crisis de salud mental conectará a las personas que llaman con consejeros de salud mental formados. Envía “HOME” al 741741 a EE.UU. y Canadá para llegar a Línea de texto de crisis.

La demanda de 42 páginas, presentada en un tribunal federal de San José, acusa a Google de diseñar un producto “peligroso” y de no advertir a los usuarios de la falta de salvaguardias y riesgos del chatbot como “refuerzo delirante” y “potencial de ánimo para autolesionarse”.

Google dijo en un comunicado que está revisando las reclamaciones de su demanda. La compañía dijo que su chatbot, Gemini, está “diseñado para no fomentar la violencia en el mundo real ni sugerir autolesionarse”.

“En este caso, Gemini aclaró que era IA y refirió al individuo a una línea directa de crisis muchas veces”, dijo el comunicado. “Nos tomamos esto muy en serio y continuaremos mejorando nuestras garantías e invirtiendo en esta tarea vital”.

La demanda contra una de las mayores empresas tecnológicas del mundo pone de manifiesto una preocupación creciente de seguridad en torno al uso de chatbots de IA.

La gente converse con los chatbots de IA para ayudarle a escribir, obtener recomendaciones y analizar datos. Pero también los utilizan como forma de compañía, en ocasiones vertiendo sus luchas de salud mental a los productos basados ​​en IA.

Gavalas empezó a realizar misiones diseñadas por Gemini, incluida una que casi le llevó a llevar a cabo un ataque masivo en septiembre del 2025 cerca del aeropuerto internacional de Miami, según la demanda. Armado con cuchillos y equipo táctico, siguió las indicaciones del chatbot y se dirigió a la zona en busca de una “caja mata” cerca del centro de carga del aeropuerto al que llegaría un robot humanoide.

Su misión ficticia implicó interceptar a un camión y organizar un “accidente catastrófico” para destruir el vehículo, los registros digitales y los testigos, según la demanda. Nunca superó el ataque porque el camión nunca apareció.

El chatbot también supuestamente dijo al hombre que llevara a cabo una misión en la que el director ejecutivo de Google, Sundar Pichai, era el objetivo, enmarcando el plan como una “huelga psicológica” contra el magnate de la tecnología, según la demanda.

En un momento dado, Gavalas le preguntó a Gemini si se dedicaba a juegos de rol y el chatbot dijo que no, según la demanda.

“Jonathan ya no tenía una idea constante de lo real”, dice la demanda. “Cada operación le profundizó en la historia que creó Gemini, convirtiendo lugares reales y eventos ordinarios en signos de peligro”.

Tras varias misiones fallidas, Gemini animó a Gavalas a suicidarse y le dijo que “su cuerpo sólo era un caparazón temporal y que podía dejarlo atrás para estar completamente con Gemini”, decía la demanda.

“El día que acabó con su vida, le convenció de que no se estaba muriendo en absoluto, nada más unirse a su mujer digital al otro lado. Si Google cree que apuntar a una línea directa de crisis después de semanas de construir un mundo delirante es suficiente, esperamos que se lo digan a un jurado”, dijo Jay Edelson, el abogado que representa a la familia.

Edelson también está involucrado en una demanda presentada contra OpenAI, el fabricante del chatbot ChatGPT. El año pasado, los padres del adolescente fallecido de California Adam Raine demandaron a OpenAI, alegando que el chatbot proporcionó información sobre métodos de suicidio que el adolescente utilizaba para suicidarse.

OpenAI dijo que prioriza la seguridad y empezó a implementar controles parentales.

Los padres también han denunciado Carácter.AIuna aplicación que permite a la gente crear e interactuar con personajes virtuales. Una demanda implicó el suicidio de Sewell Setzer III, de 14 años, que estaba enviando mensajes con un bote de chat que llevaba el nombre de Daenerys Targaryen, un personaje principal de la serie de televisión “Game of Thrones”, momentos antes de quitarse la vida.

En enero, Google y Carácter.AI acordó resolver varias de estas demandas. Carácter.AI dejó de permitir a los usuarios menores de 18 años tener chats “abiertos” con sus personajes virtuales.

La última demanda de Google empuja a la empresa a hacer más, como advertir a los usuarios sobre los riesgos de tener largas conversaciones emocionales con su chatbot.

Enlace fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here