Deepfakes: la Inteligencia Artificial que te hará desconfiar de los vídeos que veas a partir de ahora

Si en este artículo acuñamos de primeras el término “deepfake” quizás algunos de vosotros no sepáis a lo que nos estamos refiriendo. Pero, ¿y si os hablamos del viral vídeo que ha circulado este año por Internet, donde Mark Zuckerberg asegura controlar billones de datos robados? ¿Os empieza a sonar algo más?

La palabra “deepfake” es un acrónimo proveniente del inglés que fusiona las palabras “fake” (falso) y “deep learning” (aprendizaje profundo, uno de los métodos de aprendizaje de la Inteligencia Artificial).

Después esta descripción podéis haceros una idea de por dónde van los tiros. Seguramente deduciréis que el CEO de Facebook nunca pronunció esas palabras. Tampoco Barack Obama ha llamado idiota a Donald Trump. Ni Kim Kardashian ha asegurado que los datos de sus “haters” la han hecho rica. Sin embargo, circulan vídeos por Internet donde aparentemente lo hacen. Todos ellos son deepfakes: vídeos donde imagen y voz han sido manipulados mediante Inteligencia Artificial con resultados extremadamente realistas.

Algunos de estos vídeos deepfake se difunden con fines cómicos o anecdóticos (gracias a la Inteligencia Artificial, por ejemplo, podemos saber cómo sería “El Resplandor” si estuviese protagonizada por Jim Carrey).

Sin embargo, existe una preocupación creciente por el uso de estos deepfakes con fines malintencionados, como en el caso de la manipulación política o la creación de montajes sexuales.

 

¿Qué tecnología hay detrás de un deepfake?

Los deepfakes se crean con redes generativas antagónicas (GAN son sus siglas en inglés), dos redes neuronales que trabajan la una contra la otra. La primera red recibe el nombre de generadora, la segunda de discriminadora.

Ambas redes son alimentadas con un mismo conjunto de datos (conocidos como datos de entrenamiento). Mientras la primera red debe crear variaciones de los datos que ya ha visto (por ejemplo, fusionando imágenes de rostros distintos) la segunda red tiene que identificar si el rostro resultante es falso o forma parte de los datos de entrenamiento que ella ya había interiorizado.

Explicado de forma sencilla, a medida que la red generadora intenta “engañar” a la red discriminadora y la red discriminadora “va descubriendo los engaños” de la primera, ambas van perfeccionando su técnica.

Al final, a la red discriminadora le resultará imposible distinguir entre la nueva creación y los ejemplos de entrenamiento, creando, en definitiva, una imitación indistinguible de la realidad.

 

Deepfakes: la democratización de la IA

Podría parecer que la creación de deepfakes está reservada para expertos. Sin embargo, existe una creciente democratización en su creación debido a la cada vez mayor disponibilidad de programas en Internet que permiten crearlos.

Mediante la aplicación para Windows FakeApp, por ejemplo, se pueden crear deepfakes en algunas horas de forma gratuita.

En el caso de las aplicaciones móviles, la china ZAO, lanzada este mes de septiembre, ha supuesto una verdadera revolución: la app permite poner tu cara en cualquier película o serie con tan solo una fotografía. Un usuario de esta herramienta compartió el espectacular resultado donde sustituye su cara por la de Leonardo DiCaprio en varios clips. Según explica en el tweet, el proceso le llevó 8 segundos.

 

Retos éticos de la IA

El realismo de algunos deepfakes es tal que pueden emplearse para propagar fácilmente “fake news” en el terreno político.  En un reportaje de The New York Times, Claire Wardle, experta en verificación de contenidos y desinformación resumía en una frase una gran problemática que deriva de esta desinformación:

“Cuando todo puede ser “fake”, se vuelve más fácil para el culpable descartar la verdad como falsa”.

Justo en ese reportaje, ella misma aparecía en forma de deepfake de Adèle, demostrando el realismo que pueden llegar a adquirir estas animaciones.

Sin embargo, el contenido principal de los deepfakes que corren por la red no es el político. Un reciente informe elaborado por la empresa holandesa de ciberseguridad Deeptrace destacaba que un 96% de deepfakes son contenido pornográfico que afecta a mujeres. La mayoría se construyen a partir de la cara de una famosa. Emma Watson, Gal Gadot y Scarlett Johannson se han visto afectadas por esta “pornografía deepfake”.

Este uso de la tecnología en contra de las mujeres, al darse de la mano de la democratización de los deepfakes, puede traducirse en una nueva forma de “pornovenganza”, algo que preocupa enormemente a los expertos.

 

Microsoft, Amazon y Facebook se alían para frenar los deepfakes

Los gigantes Microsoft, Amazon y Facebook, Partnership of AI (una coalición sin ánimo de lucro que trabaja por el uso responsable de la IA) y académicos de distintas universidades (MIT, Oxford, Berkeley o Cornell Tech) han lanzado este mes de diciembre una competición para encontrar el mejor sistema para detectar de deepfakes. Facebook, de hecho, invertirá 10 millones de dólares en esta especie de hackaton, de nombre “Deepfakes Detection Challenge”, y que finalizará el 31 de marzo.

Esta competición da muestra de la creciente preocupación por la proliferación de los deepfakes, que van perfeccionándose día a día, desfasando rápidamente los sistemas creados para combatirlos.

Hao Li, profesor asociado en la University of Southern California, ha participado en la creación de uno de los sistemas más novedosos de detección de deepfakes, y hablaba sobre esta problemática en un artículo del portal tecnológico The Verge.

En el artículo, Hao Li explica que el sistema que creó junto a sus compañeros se fijaba principalmente en el parpadeo de los personajes para saber si eran o no deepfakes (éstos no estaban entrenados con imágenes de gente con los ojos cerrados, por lo que los patrones de parpadeo que presentaban no eran naturales).

Hao Li explica cómo poco después de hacerse pública esta técnica, la siguiente generación de deepfakes incorporó el parpadeo.

 

 

Educación para saber contrastar la información: el caballo de batalla contra los fakes

 

El vídeo, el formato que hasta ahora aportaba más legitimidad a la hora de contrastar historias,  vive su momento más bajo.

En este contexto, y más que nunca, los expertos coinciden en que la formación es básica para saber dilucidar qué hay de cierto o no en las historias y materiales gráficos que nos llegan o encontramos en Internet.

De hecho, este verano la Federación de Asociaciones de Periodistas de España (FAPE) hizo llegar al ministerio de Trabajo una propuesta para incorporar una asignatura de Periodismo en los cuatro cursos de la ESO ante a la avalancha de información y noticias falsas.

Y es que en un contexto de sobreinformación y fake news como en el que nos encontramos, la frase “la información es poder” cobra más sentido que nunca.

 

Escrito por Eugenia Basauli

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *