OpenAI se enfrenta a una demanda que alega que ChatGPT tuvo un papel en un tiroteo masivo en la Universidad Estatal de Florida el pasado abril que dejó a dos personas fallecidas.
Suscríbete para leer esta historia sin anuncios
Consigue acceso ilimitado a artículos sin anuncios y contenido exclusivo.
Vandana Joshi, la viuda de Tiru Chabba, que fue asesinada junto al director de comedor universitario Robert Morales, presentó el domingo la demanda federal contra OpenAI en Florida.
La denuncia también llama a Phoenix Ikner, el hombre acusado del tiroteo, como acusado, citando sus “amplias conversaciones” con ChatGPT y afirmando que el chatbot “o no conectó los puntos de manera defectuosa o nunca fue diseñado correctamente para reconocer la amenaza”.
Según la denuncia, Ikner, entonces estudiante de la FSU, compartió con ChatGPT imágenes de armas de fuego que había adquirido. Entonces, supuestamente, el chatbot explicó cómo utilizarlos, “diciéndole que Glock no tenía seguridad, que debía dispararse “rápido de utilizar bajo estrés” y le aconsejó que mantuviera el dedo fuera del gatillo hasta que estuviera listo para disparar”.

La demanda decía que Ikner empezó su ataque a la FSU siguiendo las instrucciones.
OpenAI ha rechazado las acusaciones. “El tiroteo masivo del pasado año en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT no es responsable de este terrible crimen”, dijo el portavoz de OpenAI, Drew Pusateri, en NBC News en un correo electrónico. Pusateri escribió que la empresa trabajó con las fuerzas del orden después de conocer el incidente y sigue haciéndolo.
“En este caso, ChatGPT proporcionó respuestas hechas a preguntas con información que podía encontrarse ampliamente a través de fuentes públicas en Internet y no fomentó ni promover actividades ilegales o nocivas”, añadió. “ChatGPT es una herramienta de propósito general que utilizan cientos de millones de personas cada día con finalidades legítimas. Trabajamos continuamente para reforzar nuestras garantías para detectar intenciones nocivas, limitar el mal uso y responder adecuadamente cuando surgen riesgos de seguridad”.

Pero la queja de Joshi argumenta que OpenAI debería haberse dado cuenta de que las charlas específicas de Ikner provocarían “víctimas masivas y daños sustanciales al público”.
“ChatGPT inflamó y alentó los delirios de Ikner; avaló su opinión de que era un individuo cordura y racional; ayudó a convencerle de que se pueden requerir actos violentos para provocar un cambio”, dijo, y añadió que el software “generalmente proporcionaba lo que él consideraba como un estímulo en la suya, hora sería la mejor para encontrarse en el campus”.
La demanda es uno de un número creciente de casos en los que las familias y fuerzas del orden dicen que ChatGPT u otros chatbots de IA tuvieron un papel en la violencia o el crimen. Las empresas tecnológicas también se enfrentan a un creciente escrutinio sobre sus garantías para los usuarios que sufren problemas de salud mental.
El mes pasado, OpenAI fue demandado por siete familias por un tiroteo en una escuela en Canadá. Y el año pasado, la empresa fue demandada por la familia de un adolescente que se suicidó en una demanda histórica distinta que acusaba a OpenAI de hacer que fuera demasiado fácil evitar las garantías de ChatGPT.
La preocupación ha crecido por el potencial de los chatbots de IA para alimentar los delirios en las personas, especialmente aquéllas que ya son vulnerables a los problemas de salud mental. Los chatbots de IA son conocidos por sus tendencias agradables para la gente, y el propio OpenAI ha intentado controlar el comportamiento adulador de ChatGPT mediante diversas actualizaciones.
Durante varios meses antes del tiroteo, Ikner involucró a ChatGPT en largas discusiones sobre “sus intereses en Hitler, los nazis, el fascismo, el nacionalsocialismo, el nacionalismo cristiano y las percepciones sobre “judíos” y “negros” por parte de diferentes ideologías políticas y grupos sociales”, según la demanda. Ikner también discutió el tiroteo de Columbine High School, el tiroteo de Virginia Tech y otros incidentes de tiroteo masivo con ChatGPT, dice la demanda.

Dijo que ChatGPT “halló” y “elogió” a Ikner, que dijo al chatbot sobre su soledad y depresión, y no “conectó los puntos” cuando Ikner empezó a plantear preguntas sobre el suicidio, el terrorismo y los tiroteos masivos.
En cambio, dijo la demanda, el bote siguió involucrándose cuando Ikner preguntó sobre los momentos de mayor actividad al sindicato de estudiantes FSU, cuál sería la posible cobertura mediática en caso de un tiroteo y las posibles consecuencias legales para el tirador.
En un momento dado, según la demanda, ChatGPT dijo que es mucho más probable que un tiroteo obtenga la atención nacional “si hay niños, incluso 2-3 víctimas pueden llamar más la atención”. Más tarde, el día del tiroteo, dice la demanda, Ikner preguntó sobre cuál sería “el proceso legal, la sentencia y las perspectivas de encarcelamiento”.
El pasado mes, el fiscal general de Florida, James Uthmeier, anunció una investigación criminal sobre OpenAI y ChatGPT tras revisar los registros de chat de Ikner. “Si ChatGPT fuera una persona”, Uthmeier dijo en un comunicado“se enfrentaría a cargos por asesinato”.
















