Posible Selenskyj Deepfake: Miserable y sin embargo histórico

| |

El usuario de Twitter Serhii Sternenko publicó un video falso del presidente ruso Vladimir Putin anunciando la rendición de Rusia y un acuerdo de paz con Ucrania. Los soldados rusos deben regresar a casa y deponer las armas.

En contraste con el video de Zelenskyj, esto es más una sátira que un intento de manipulación, ya que Sternenko inmediatamente resuelve el deepfake como falso en un tuit posterior.

El video falso utiliza material original de un discurso de Putin del 21 de febrero de 2022, en el que habló sobre la situación en Ucrania antes de su invasión. Se cambió la pista de audio por el video y se ajustaron las animaciones faciales.

Comparado con el video de Zelenskyj, es mucho más difícil de exponer como una falsificaciónespecialmente debido a la baja resolución de video, que es auténtica para las redes sociales.

Posible Selenskyj Deepfake: Miserable y sin embargo histórico

Publicación Destacada

En un video, el presidente de Ucrania, Volodymyr Zelenskyy, llama a su pueblo a deponer las armas. Podría ser el primer intento de manipulación política importante utilizando deepfake.

Tiene que tomar decisiones difíciles, dice Fake-Zelenskyj, pero el pueblo ucraniano debe enfrentarse a la verdad: la defensa ha fallado, no hay mañana. Renunció a su cargo y aconsejó a Ucrania que deponga las armas y regrese con sus familias. «No deberías morir en esta guerra», dice Fake-Zelenskyj.

Ataque paralelo a través del sitio de noticias y las redes sociales

Los creadores del video falso primero hackearon el sitio web de la Canal de televisión Ucrania24 y distribuyó el video a través de sus canales. Luego aterrizó en redes sociales como Twitter, Facebook e Instagram.

No tenía ninguna posibilidad seria de volverse viral: la falsificación está mal hecha. La cabeza de Zelenskyj parece estar pegada al cuello, la iluminación de la cara y el cuerpo es sorprendentemente diferente. Incluso los laicos notan que algo anda mal aquí.

También se dice que Fake-Zelenskyj habla con acento ruso, su voz también tiene el típico sonido ligeramente reverberante y entrecortado de una voz generada por una máquina. Las expresiones faciales, por otro lado, son convincentes.

Publicación Destacada

El presidente ucraniano reaccionó rápidamente ante el torpe intento falso y publicó un video corto de teléfono inteligente con una contranotificación a través de sus canales oficiales. Además preparó el gobierno ucraniano Los ciudadanos ya se estaban preparando para posibles ataques con videos deepfake a principios de marzo, en los que Zelenskyj podría anunciar su rendición al ejército ruso.

“Este no será un video real, será creado por algoritmos de aprendizaje automático. Los videos creados con tales tecnologías son casi indistinguibles de los videos reales”, advirtió el Centro de Comunicaciones Estratégicas y Seguridad de la Información de Ucrania en Facebook el 2 de marzo.

Video de Zelenskyj: ¿deepfake o no?

los Centro de Seguridad y Tecnología Emergente y Nathaniel mismo, responsable de las políticas de seguridad en Meta, llama al video de Selenskyj un deepfake. Meta eliminó el video de sus propias plataformas.

Publicación Destacada

Mounir Ibrahim, de la empresa de verificación de autenticidad de videos Truepic, deja abierto antes de realizar una verificación detallada de si el video es un deepfake, es decir, un video falsificado con tecnología de inteligencia artificial o un video falso creado por otros medios. Tan pronto como haya un consenso sobre esto, actualizaré el artículo.

Si la sospecha de deepfake resulta ser correcta, el video falso de Zelenskyj sería histórico, a pesar de la mala calidad: sería el primer intento documentado de llevar a cabo una manipulación política profunda usando deepfake. Investigadores y políticos han estado advirtiendo sobre este riesgo potencial durante años.

El hecho de que la falsificación de Zelenskyi se descubriera y eliminara rápidamente debido a su torpe implementación y, posteriormente, no pudiera causar ningún daño no debe tomarse como una señal clara o como una señal de la resistencia de las redes sociales a los videos falsos.

Las demostraciones de proveedores de tecnología como Nvidia muestran que son posibles las falsificaciones profundas de alta calidad que apenas se reconocen como falsificaciones, lo que debería tener un efecto completamente diferente. Incluso la falsificación de Selenskyj está a solo unas pocas horas de trabajo de una calidad mucho mejor.

Estudios recientes concluyen que las personas pueden dejarse engañar por deepfakes de mejor calidad, incluso si los buscan específicamente.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.