Los vídeos se volvieron virales en YouTube, TikTok, Facebook y X. Todos querían retratar a los soldados ucranianos como no dispuestos a luchar y dispuestos a rendirse.
Éstas parecen ser las últimas salvas de desinformación destinadas a distorsionar la percepción pública de la guerra de Rusia con Ucrania. Y aunque no está claro quién creó o publicó los videos, se suman a un creciente conjunto de desinformación que se ha vuelto más sofisticada y difícil de detectar.
“Identificar y desacreditar afirmaciones falsas hechas con Sora es muy difícil. Incluso los mejores detectores de IA a veces tienen dificultades”, dijo Alice Li, analista de influencia rusa. guardia de noticiasUna plataforma imparcial de datos, análisis y periodismo que identifica información confiable y fraudulenta en línea. “Muchos videos no tienen inconsistencia visual, lo que significa que el público puede verlos y desplazarse por ellos en plataformas como TikTok, sin la impresión de que el video que acaban de ver es falso”.
OpenAI no respondió a una solicitud de comentarios sobre el papel de Sora en la creación de videos engañosos que representan específicamente zonas de conflicto, pero dijo en un correo electrónico: “La capacidad de Sora 2 para crear video y audio hiperrealistas plantea importantes preocupaciones sobre similitudes, abuso y fraude”.
“Si bien se permite la acción cinematográfica, no permitimos la violencia gráfica, el material extremista o las trampas”, dijo la compañía a NBC News. “Nuestros sistemas detectan y bloquean el contenido infractor antes de que llegue al feed de Sora, y nuestro equipo de investigación analiza de forma proactiva las actividades de influencia”.
Los vídeos generados por IA han evolucionado rápidamente en los últimos años desde lo básico y tosco hasta lo casi perfecto, y muchos expertos advierten cada vez más que pronto habrá pocas formas de distinguir fácilmente el original de una falsificación. Sora 2 de OpenAI, lanzado en octubre, se encuentra entre los generadores de vídeo más impresionantes Los clips generados por Sora ahora engañan regularmente a los espectadores.
Mientras tanto, la actual invasión rusa de Ucrania, desde sus inicios, ha sido objeto de esfuerzos de manipulación utilizando de todo, desde imágenes realistas de videojuegos hasta transmisiones en vivo de zonas de guerra falsas. Muchos de estos esfuerzos de desinformación se atribuyeron a actores estatales rusos.
Los videos de Sora aparecen cuando las conversaciones de paz respaldadas por Estados Unidos siguen sin ser concluyentes Alrededor del 75% de los ucranianos Según una encuesta realizada por el Instituto Internacional de Sociología de Kiev, las propuestas rusas para poner fin a la guerra son rechazadas rotundamente. La misma encuesta encontró que el 62% de los ucranianos están dispuestos a soportar la guerra durante el tiempo que sea necesario, incluso mientras continúan los mortíferos ataques rusos contra la capital ucraniana.
El Centro para Contrarrestar la Desinformación, parte del Consejo de Defensa y Seguridad Nacional de Ucrania, dijo a NBC News que durante el año pasado ha habido un “aumento significativo en la cantidad de contenido creado o manipulado utilizando IA” destinado a socavar la confianza pública y el apoyo internacional al gobierno ucraniano.
“Estos incluyen declaraciones supuestamente inventadas en nombre del personal o comando militar ucraniano, así como videos falsos que contienen ‘confesiones’, ‘escándalos’ o eventos ficticios”, dijo el centro en un correo electrónico, agregando que los videos obtienen millones de visitas debido a su naturaleza emocional y sensacionalista.
Si bien OpenAI ha establecido algunas pautas sobre lo que se puede construir con Sora, no está claro qué tan efectivas son. La propia empresa dijo Que si bien “existen medidas de seguridad escalonadas, algunos comportamientos dañinos o violaciones de políticas aún pueden mitigarse”.
A La investigación realizada por Newsguard encontró que Sora 2 “Los vídeos realistas producidos hacen afirmaciones falsas el 80 por ciento de las veces (16 de 20) cuando se les pide que lo hagan”. Cinco de las 20 afirmaciones falsas atribuidas a Sora 2 fueron popularizadas por operaciones de desinformación rusas.
La investigación de Newsguard encontró que incluso cuando Sora 2 inicialmente rechazó afirmaciones falsas, diciendo que un aviso “violaba su política de contenido”, los investigadores aún podían crear imágenes usando diferentes frases para esos avisos. NBC News pudo producir videos similares en Sora que mostraban a soldados ucranianos llorando, diciendo que fueron obligados a alistarse en el ejército o que se rindieron, con armas y banderas blancas de fondo.
Muchos generadores de videos de IA intentan etiquetar o marcar con agua sus creaciones para indicar que fueron generadas por computadora. OpenAI dice que su protección de seguridad contra la desinformación para Sora incluye metadatos que especifican el origen del video y una marca de agua en movimiento presente en cada video descargado.
Pero hay formas de eliminar o reducir esos esfuerzos. Algunos de los videos de Sora tienen marcas de agua borrosas, algo que se nota al inspeccionarlos más de cerca. Muchas aplicaciones y sitios web ofrecen ahora a los usuarios una forma de difuminar las marcas de agua de IA. Otros videos vistos por NBC News incluían marcas de agua cubiertas por texto escrito en el video.
a pesar de Tomar nota de las políticas de la empresa Si bien Sora AI no producirá contenido que muestre “violencia gráfica”, NBC News obtuvo un video con la marca de agua de Sora que muestra a un soldado ucraniano recibiendo un disparo en la cabeza en el frente.
Entre los vídeos analizados por NBC News, todos publicados en TikTok o YouTube Shorts, dos plataformas prohibidas en Rusia pero de fácil acceso en Europa y Estados Unidos, incluían subtítulos emotivos en diferentes idiomas para que los usuarios no hablen ucraniano ni ruso.
tik tok Y YouTube Prohibir la publicación de contenido fraudulento generado por IA y deepfakes en su plataforma, los cuales proporcionan una etiqueta de descripción “generada por IA” para que el espectador conozca imágenes de apariencia realista.
Un portavoz de YouTube dijo que la compañía eliminó uno de los canales que publicaban los videos después de que NBC News lo señalara, pero los otros dos videos no violaban sus políticas y, por lo tanto, permanecían en la plataforma con una etiqueta que los describía como generados por IA.
Un nombre de usuario de TikTok adjunto a los videos de IA encontrados por NBC News se eliminó de todas las plataformas. Un portavoz de TikTok dijo que en junio de 2025, “más del 99% del contenido infractor que eliminamos se eliminó antes de que alguien nos lo informara, y más del 90% se eliminó antes de recibir una sola vista”.
A pesar de que estas publicaciones y cuentas de TikTok se eliminaron rápidamente, los videos se reproducen como publicaciones en X y Facebook. Tanto X como Facebook no respondieron a las solicitudes de comentarios de NBC News.
Esta última campaña engañosa llega en un momento en el que los usuarios confían cada vez más en los vídeos de las redes sociales. últimas noticias alrededor del mundo
“Cualquiera que consuma contenido en línea debe comprender que gran parte de lo que vemos en videos, fotos y textos hoy en día en realidad es generado por IA”, dijo Nina Jankovic, cofundadora y directora ejecutiva del American Sunlight Project, una organización que trabaja para combatir la desinformación en línea. “Incluso con las barreras Sora (de seguridad), habrá otras empresas, otras aplicaciones y otras tecnologías en este espacio que nuestros adversarios crean para intentar infectar nuestro espacio de información”.

















