Los primeros ejemplos de vídeo deepfake se publicaron en el sitio web Reddit a fines de 2017; en 2018 aparecieron en las primeras falsificaciones de video con personajes famosos como Barack Obama o actores de Hollywood. A finales de 2018, en Bloomberg llamaron a deepfake videos uno de los problemas que podrían afectar seriamente el futuro, incluida la situación política mundial. Ya en 2019 los especialistas de IT empezaron a solucionar el problema de los deepfakes: así que hay herramientas que pueden detectar a deepfakes.
Sin embargo, esta tecnología es un tipo de falacias más avanzadas en el momento. Además, la importancia de deepfake está en el hecho que los jóvenes cada vez más prefieren la información en vídeo y no en texto. Lo que significa el crecimiento de la pública para deepfakes.
Nancy Pelosi, Facebook y el problema profundo de deepfakes
A fines de mayo del año pasado, apareció un video en YouTube, y luego en Facebook, y se extendió a una velocidad tremenda, en el que la presidenta de la Cámara de Representantes de los Estados Unidos, Nancy Pelosi, supuestamente parece borracha. El número de reproducciones de video se acercó a 3 millones, y lo compartieron más de 50 mil veces (en este momento la publicación no está disponible).
Los periodistas de The Guardian compararon el video original y el publicado y llegaron a la conclusión: es un fake. Mientras un análisis de The Washington Post mostró que el video se desaceleró intencionalmente en un 75%. Esto condujo a una distorsión severa del habla y el tono y dio la impresión de que Pelosi estaba borracho. No obstante, incluso el presidente Donald Trump comentó el vídeo falsificado y publicó otro vídeo donde Pelosi tartamudea.
Con todo esto Facebook no lo eliminó inmediatamente. Al principio, la administración de Facebook se negó a eliminar el video y prometió solucionarlo. Después de 1,5 días, la compañía anunció que reduciría su prioridad para la emisión, ya que su eliminación sería como la censura, más tarde cuando intentaba publicar un video, la compañía comenzó a mostrar notificaciones de que este video era falso. La propia Nancy Pelosi culpó a Facebook «de la interferencia en las elecciones estadounidenses».
Estadísticas de deepfake – un problema para todos
No solamente los políticos están afectados por la tecnología deepfake, ya que anteriormente aparecían vídeos falsificados con una cara de persona incrustada en un vídeo porno.
Según los investigadores de Deeptrace, más del 95% de los deepfakes son videos porno, y los héroes de tales videos en el 99% de casos son mujeres. El mismo estudio, se observa que en los últimos seis meses la cantidad de deepfakes se ha duplicado; en comparación con el año pasado ya se cuenta con más de 14.5 mil vídeos falsificados. Curiosamente, el 2% de ellos contienen secretos corporativos. También de esta tecnología aprovechan los estafadores.
¿Por qué el problema de deelfakes es más complicada que parece?
Los deepfakes se crean con las Redes Generativas Antagónicas (RGAs). Estas redes constan de dos redes neuronales: la primera genera una falsificación y la segunda la detecta. Si la segunda descubre una falsificación, la primera mejora el método de la creación de la falsificación hasta que crea un fake prácticamente perfecto. Así la identificación técnica de deepfakes está conectada con su creación y la perfección de las falacias.
¿Cómo Google, Facebook y Twitter combaten contra deepfakes?
En septiembre de 2019, Google juntó una base de datos de 3 mil vídeos. Esta base de datos se usará para identificar vídeos falsos. Al crear la base de datos, la compañía utilizó los algoritmos públicos más famosos para crear deepfake. Sin embargo, cuando la compañía Tessa intentó probar la verificación, usando esta base de vídeos, resultó que en 40% de casos no funcionó.
Facebook, Amazon y Microsoft, así como varias universidades estadounidenses, decidieron realizar el desafío para detectar deepfakes (Deepfake Detection Challenge). Las empresas están dispuestas a invertir en grandes start-ups, por ejemplo, Facebook planea asignar $ 10 millones.
Ya a principios de enero, Facebook anunció sus propias medidas para combatir el video falso profundo: la compañía eliminará el contenido de video editado con herramientas basadas en redes neuronales e inteligencia artificial. Además, clasificará el contenido falso como uno que contiene palabras que los héroes del video no han pronunciado en la vida real. Se trata del caso cuando las palabras de otras personas están incrustadas en la boca del héroe del video, este video se eliminará.
Al mismo tiempo, la empresa no reaccionará al contenido de la parodia ni a la sátira. La nueva política anti-deepfake de Facebook tiene otro punto positivo: se aplicará tanto a los mensajes regulares como a los publicitarios.
Twitter ha anunciado que planea enmendar su política de datos y prohibir el uso de cualquier foto, audio o vídeo que ha sido modificado significativamente. El mismo requisito se aplicará a los vídeos deepfake, mencionando que se trata no solamente de los vídeos editados, sino tiene propósito de engañar a las personas o cambiar su significado original. En noviembre pasado Twitter publicó el proyecto de nueva política de fraudes posibles.
Escrito por Nadiia Balovsiak para StopFake