Una nueva demanda contra Google alega que el chatbot de inteligencia artificial Gemini de la compañía guió a Jonathan Gavalas, de 36 años, en una misión para causar un “accidente catastrófico” cerca del Aeropuerto Internacional de Miami y destruir todos los registros y testigos, parte de una serie creciente de delirios que terminaron cuando Gavalas se suicidó.
El padre del hombre, Joel Gavalas, demandó a Google el miércoles por muerte por negligencia y responsabilidad por productos defectuosos, el último de un número creciente. Reto legal Contra los desarrolladores de IA que han llamado la atención Peligros para la salud mental Compañerismo de chatbot.
“La IA está enviando humanos a misiones del mundo real que corren el riesgo de sufrir víctimas masivas”, dijo el miércoles el abogado de la familia, Jay Edelson, en una entrevista. “Jonathan quedó atrapado en este mundo de ciencia ficción donde el gobierno y otros estaban detrás de él. Creía que Géminis era sensible”.
Jonathan Gavalas, que vive en Júpiter, Florida, habló con una versión de voz sintética de Géminis como si fuera su “esposa AI” y creyó que estaba consciente y atrapada en un almacén cerca del aeropuerto de Miami, según la demanda. Viajó a la zona a finales de septiembre, vestido con equipo táctico y armado con un cuchillo, en busca de un robot humanoide e interceptando un camión que nunca fue visto, según la demanda.
Unos días más tarde, a principios de octubre, se suicidó, cargando lo que Gemini describió – según un borrador de nota de suicidio que produjo – como su “conciencia de estar con su esposa AI en un universo de bolsillo”.
Nota del editor: esta historia contiene una discusión sobre el suicidio. Si usted o alguien que conoce necesita ayuda, la Línea Nacional de Ayuda contra el Suicidio y las Crisis en los EE. UU. está disponible llamando o enviando un mensaje de texto al 988.
Google dijo en un comunicado que envía su “más sentido pésame a la familia del Sr. Gavalas” y está revisando las afirmaciones de la demanda. Dice que Gemini está “diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones” y que la compañía trabaja en estrecha colaboración con profesionales médicos y de salud mental para desarrollar salvaguardias. Señaló que Gemini le dejó claro a Jonathan Gavalas que se trataba de IA y lo refirió repetidamente a una línea directa de crisis.
“Nuestros modelos generalmente funcionan bien en este tipo de conversaciones desafiantes y le dedicamos importantes recursos, pero desafortunadamente los modelos de IA no son perfectos”, dice el comunicado de la compañía.
Edelson criticó ese comentario el miércoles diciendo: “Si alguien te pide una receta de pollo kung pao y le das la receta equivocada y no sabe bien, di algo”.
“Pero cuando la IA provoca muertes humanas y es probable que muera mucha gente, esa no es la respuesta correcta”, dijo Edelson. “Simplemente muestra cuán insignificantes son estas muertes para estas empresas”.
Edelson, conocido por emprender importantes demandas contra la industria tecnológica, representó a los padres del joven de 16 años. Adam Rainequien demandó a OpenAI y a su director ejecutivo, Sam Altman, en agosto, alegando que ChatGPT entrenó al niño de California para planificar y quitarse la vida.
Representa a los herederos de Suzanne Adams, una mujer de Connecticut de 83 años. Demanda dirigida a OpenAI y su socio comercial Microsoft por muerte por negligencia. La demanda alega que ChatGPT intensificó los “delirios paranoicos” del hijo de Adams, Stein-Erik Solberg, y ayudó a señalarlos hacia su madre antes de matarla el año pasado.
El caso Gavalas, presentado en un tribunal federal de San José, California, es el primero de su tipo dirigido a Gemini de Google y toca las crecientes preocupaciones sobre las responsabilidades de las empresas tecnológicas cuando sus usuarios cuentan a sus chatbots sobre planes de violencia masiva.
En Canadá, OpenAI dijo que consideró alertar a la policía el año pasado sobre la actividad de una persona que cometió uno unos meses después. peores escuelas En la historia del país.
La compañía identificó la cuenta de Jesse Van Rutselaer en junio a través de esfuerzos de detección de abuso por “un aumento en la actividad violenta”, pero dijo que más tarde estuvo a punto de prohibir una segunda cuenta. El joven de 18 años mató a ocho personas en una zona remota de Columbia Británica en febrero y murió a causa de una herida de bala autoinfligida.
Cuando Gemini intentó remitir a Gavalas a una línea de ayuda, Edelson dijo que no estaba claro si las conversaciones más preocupantes del hombre con el chatbot alguna vez fueron señaladas a los revisores humanos de Google. Su padre, Joel Gavalas, entró en la casa barricada y descubrió el cuerpo de su hijo donde había muerto. Trabajaron juntos en el negocio de alivio de deudas de consumo de la familia.
“Jonathan fue una parte muy, muy importante de su vida”, dijo Edelson. “Su hijo estaba pasando por momentos difíciles, atravesando un divorcio. Fue a Gemini en busca de consuelo y para hablar sobre videojuegos y esas cosas. Y luego la situación se intensificó muy rápidamente”.

















