2019-01-31T11:42:31-03:00

Un video de “deepfakes” se hizo viral en las últimas horas y te explicamos por qué la imagen se ve tan real. ¡Mirá el video!

Videos “deepfakes”, una tendencia que preocupa a la política - Imagen

El “deepfakes” es una tendencia que surgió en un principio para crear videos pornos falsos, donde se ponía la cara de actrices conocidas en distintas imágenes sexuales y, con el tiempo, esto fue mutando y hoy es un gran problema para cualquier ámbito.

A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno, los “deepfakes” son una constante amenaza para asuntos políticos. Por ejemplo: cualquiera podría crear un video de este estilo con la cara de Mauricio Macri y salir a decir una noticia falsa.

Para entender un poco mejor de qué se trata, un usuario de Reddit, más conocido como VillainGuy, fusionó la cara del actor Steve Buscemi con el cuerpo de Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016.

Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita ‘faceswap’ y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació ‘Jennifer Lawrence-Buscemi’.

El Departamento de Defensa de los Estados Unidos ya trabaja en los videos “deepfakes” para prevenir “fake news” en las Elecciones 2020

El caso estalló en Estados Unidos ya que se vienen las elecciones 2020 y hay informes que apuntan a que el Departamento de Defensa ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un video es falso o manipulado con inteligencia artificial.

Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: “Un ser humano adulto y sano parpadea de forma regular entre cada 2 y 10 veces por minuto, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos ‘deepfake'”.