Navegar por la aplicación Sora puede parecer un poco como entrar en un multiverso de la vida real.
Michael Jackson realiza stand-up; el extraterrestre de las películas “Predator” voltea hamburguesas en McDonald’s; una cámara de seguridad de una casa capta un alce atravesando la puerta de cristal; La reina Isabel se lanza desde lo alto de una mesa en un pub.
Realidades tan improbables, futuros fantásticos y videos extravagantes son el pilar de la aplicación Sora, una nueva aplicación de videos cortos lanzada por OpenAI, fabricante de ChatGPT.
El flujo continuo de videos cortos e hiperrealistas creados por inteligencia artificial es alucinante y fascinante al principio. Pero rápidamente conduce a una nueva necesidad de cuestionar si cada contenido es real o falso.
“El mayor riesgo con Sora es que hace que la negación plausible sea imposible de superar y que erosiona la confianza en nuestra capacidad para distinguir lo real de lo sintético”, dijo Sam Gregory, experto en falsificaciones y director ejecutivo de WITNESS, una organización de derechos humanos. “Las falsificaciones individuales importan, pero el daño real es una niebla de duda que se posa sobre todo lo que vemos”.
Todos los vídeos de la aplicación Sora se generan íntegramente con IA y no hay opción para compartir imágenes reales. Pero desde la primera semana de su lanzamiento, los usuarios fueron compartiendo sus vídeos de Sora en todo tipo de redes sociales.
Menos de una semana después de su lanzamiento el 30 de septiembre, la aplicación Sora cruzó un millones de descargassuperando el crecimiento inicial de ChatGPT. Sora también alcanzó la cima de la App Store en Estados Unidos. Por ahora, la aplicación Sora sólo está disponible para usuarios de iOS en los Estados Unidos y las personas no pueden acceder a ella a menos que tengan un código de invitación.
Para usar la aplicación, las personas deben escanear su rostro y leer tres números que aparecen en la pantalla para que el sistema capture una firma de voz. Una vez hecho esto, los usuarios pueden escribir un mensaje de texto personalizado y crear videos hiperrealistas de 10 segundos con sonido de fondo y diálogos.
Usando una función llamada “Cameos”, los usuarios pueden superponer su cara o la de un amigo en cualquier video existente. Aunque todas las salidas llevan una marca de agua visible, numerosos sitios web ofrecen ahora la eliminación de marcas de agua para los vídeos de Sora.
En su lanzamiento, OpenAI adoptó un enfoque laxo a la hora de hacer cumplir las restricciones de derechos de autor y permitió la recreación de material protegido por derechos de autor de forma predeterminada, a menos que los propietarios optaran por no participar.
Los usuarios comenzaron a generar videos de IA con personajes de títulos como “Bob Esponja”, “South Park” y “Breaking Bad”, y videos inspirados en el programa de juegos “The Price Is Right” y la comedia de los 90 “Friends”.
Luego vino la recreación de celebridades muertas, como Tupac Shakur deambulando por las calles de Cuba, Hitler enfrentándose a Michael Jackson y remezclas del reverendo Martin Luther King Jr. pronunciando su icónico discurso “Tengo un sueño”, pero pidiendo la liberación del rapero caído en desgracia Diddy.
“Por favor, deja de enviarme vídeos de IA de papá”, publicó Zelda Williams, hija del fallecido comediante Robin Williams. Instagram. “No estás haciendo arte, estás haciendo hot dogs repugnantes y sobreprocesados a partir de vida humana, historia del arte y música, y luego se los estás metiendo en la garganta de otra persona, con la esperanza de que te den el visto bueno y les guste. Bru”.
Otras recreaciones de celebridades muertas, incluidos Kobe Bryant, Stephen Hawking y el presidente Kennedy, creadas en Sora, se han publicado en sitios web de redes sociales y han obtenido millones de visitas.
Christina Gorski, directora de comunicaciones de Fred Rogers Productions, dijo que la familia de Rogers estaba “frustrada por los videos de IA que tergiversaban al Sr. Rogers que circulaban en línea”.
En Sora se han compartido ampliamente videos del Sr. Rogers sosteniendo un arma, saludando al rapero Tupac y otros pasos en falso satíricos.
“Los videos están en directa contradicción con la cuidadosa intención y el cumplimiento de los principios básicos del desarrollo infantil que Fred Rogers trajo a cada episodio de Mister Rogers’ Neighborhood. Nos comunicamos con OpenAI para solicitar que la voz y la imagen de Mister Rogers sean bloqueadas para su uso en la plataforma Sora, y esperamos que ellos y otras plataformas de IA respeten las identidades personales en el futuro”. dijo Gorski en un comunicado.
Las agencias y sindicatos de talentos de Hollywood, incluido SAG-AFTRA, han comenzado a acusar a OpenAI de uso inapropiado de imágenes. La tensión central se reduce a controlar el uso de imágenes de actores y personajes con licencia y a una compensación justa por su uso en vídeos de IA.
A raíz de las preocupaciones de Hollywood sobre los derechos de autor, Sam Altman compartió una publicación de blog prometiendo más control para que los titulares de derechos especifiquen cómo se pueden usar sus personajes en videos de IA, y está explorando formas de compartir los ingresos con los titulares de derechos.
También dijo que los estudios ahora podrían “acordar” que sus personajes sean utilizados en recreaciones de IA, una inversión de la posición original de OpenAI de un régimen de exclusión voluntaria.
El futuro, según Altman, se dirige hacia la creación de contenido personalizado para una audiencia de unos pocos o de una sola persona.
“La creatividad puede estar a punto de sufrir una explosión cámbrica, y con ella la calidad del arte y el entretenimiento puede aumentar dramáticamente”, escribió Altman, llamando a este género de participación “fanfiction interactivo”.
Los patrimonios de los actores fallecidos, sin embargo, corren para proteger su imagen en la era de la IA.
CMG Worldwide, que representa los patrimonios de celebridades fallecidas, se ha asociado con la empresa de detección de falsificaciones Deep Mucha IA para proteger las listas de actores y los activos de CMG del uso digital no autorizado.
Loti AI monitoreará constantemente las imitaciones de IA de 20 personalidades representadas por CMG, incluidos Burt Reynolds, Christopher Reeve, Mark Twain y Rosa Parks.
“Desde el lanzamiento de Sora 2, por ejemplo, nuestras inscripciones se han multiplicado aproximadamente por 30 a medida que las personas buscan formas de recuperar el control sobre su imagen digital”, dijo Luke Arrigoni, cofundador y director ejecutivo de Loti AI.
Desde enero, Loti AI dijo que ha eliminado miles de instancias de contenido no autorizado a medida que las nuevas herramientas de inteligencia artificial hicieron que fuera más fácil que nunca crear y difundir deepfakes.
Después de numerosas “representaciones irrespetuosas” de Martin Luther King Jr., OpenAI dijo que estaba deteniendo la generación de videos que presentaban al ícono de los derechos civiles en Sora, a pedido de finca del rey. Si bien existen fuertes intereses de libertad de expresión al representar figuras históricas, las figuras públicas y sus familias deberían, en última instancia, controlar cómo se utiliza su imagen, dijo OpenAI en una publicación.
Los representantes autorizados o propietarios de propiedades ahora pueden solicitar que sus imágenes no se utilicen en los cameos de Sora.
A medida que aumenta la presión legal, Sora se ha vuelto más estricto sobre cuándo permitirá recreaciones de personajes protegidos por derechos de autor. Cada vez se emiten más avisos por infracciones de la política de contenido.
La creación de personajes de Disney u otras imágenes ahora genera un aviso de infracción de la política de contenido. Los usuarios que no son fanáticos de las restricciones han comenzado a crear memes en video sobre las advertencias de violación de la política de contenido.
Hay una viralidad creciente de lo que se ha llamado “baja de IA”.
La semana pasada presentó imágenes de una abuela persiguiendo a un cocodrilo en la puerta de su casa y una serie de videos de “olimpiadas de gordos” donde personas obesas participaron en eventos deportivos como salto con pértiga, natación y eventos de atletismo.
Las fábricas de hacking dedicadas han convertido el compromiso en una fuente de ingresos, generando un flujo constante de videos que son difíciles de ignorar. Un comentarista tecnológico lo denominó “Cocomelon para adultos”.
Incluso con protecciones cada vez mayores para las imágenes de celebridades, los críticos advierten que la “apropiación casual de imágenes” de cualquier persona o situación común podría generar confusión pública, aumentar la desinformación y erosionar la confianza del público.
Mientras tanto, mientras la tecnología es utilizada por malos actores e incluso algunos gobiernos para propaganda y promoción de ciertas opiniones políticas, aquellos en el poder pueden esconderse detrás del aluvión de noticias falsas que afirman que incluso la IA generó evidencia real, dijo Gregory de WITNESS.
“Me preocupa la capacidad de fabricar imágenes de protesta, escenificar atrocidades falsas o insertar a personas reales con palabras en la boca en escenarios comprometidos”, afirmó.

















