Cuando el deepfake puede recrear cualquier situación ficticia y representarla como si fuese cierta, ¿puede una persona fiarse de lo que ve? A finales de 2020 Trump y Biden fueron vistos en una reunión conjunta, enfrentando sus posturas no mediante un debate al uso, sino mediante el poder del rap.
Por supuesto, aquello no ocurrió, pero sí fue visto. Un vídeo publicado en YouTube por el canal ‘Ctrl Shift Face’ mostraba la escena con todo lujo de detalles usando deepfake. A medida que esta tecnología avanza, se hace más difícil clasificar los vídeos como reales o falsos. ¿Cómo protegerse del deepfake?
¿Qué es el deepfake, variante de las fake news?
Si una fake news o noticia falsa es una publicación que intenta hacer pasar información falaz por real usando el formato de noticia periodística, el deepfake “hace alusión a la manipulación de vídeos o audios con el objetivo de hacer creer al usuario que lo que está viendo o escuchando es real, cuando realmente es ficticio”, según la Oficina de Seguridad del Internauta.
Haciendo uso de técnicas de reconocimiento facial mediante inteligencia artificial, los deepfakes pueden componer o recrear cualquier situación. “Estamos entrando en una era en la que nuestros enemigos pueden hacer que cualquiera diga cualquier cosa en cualquier momento, incluso si nunca dijeron nada parecido”, se escucha en este deepfake de Jordan Peale de 2018.
Sin embargo, este actor y cómico no aparece en el vídeo. Sí, se grabó diciendo esas palabras, pero gracias a la magia de la inteligencia artificial, en su lugar vemos al expresidente Obama diciendo aquella frase. El vídeo fue rodado para demostrar con humor el enorme poder del deepfake en campañas políticas, que pueden verse gravemente afectadas por esta nueva forma de mentir.
Se necesitan ‘verificadores de hechos’
Debido a la complejidad de los deepfakes, parece que ya no será posible fiarse de lo que vemos. El mensaje de Jordan Peale fingiendo ser Obama continuaba así:
“Necesitamos estar más atentos a lo que confiamos en internet. Es un momento en el que debemos confiar en fuentes de noticias confiables”.
Dado que un vídeo puede haber sido manipulado, se hace necesaria una nueva capa de verificación. Es ahí donde entran los ‘verificadores de hechos’ o factcheckers. Este rol, que existe en periodismo desde hace décadas, será más importante que nunca de ahora en adelante, e incluso se han formado empresas en torno al concepto de la verificación. En España destacan Newtral y Maldita.es.
Como a veces la realidad supera la ficción, y publicándose ya deepfakes con cierta frecuencia, habrá que comprobar que algo que sí ocurrió es cierto. Es decir, debido a que algo que está en vídeo puede ser falso, que esté recogido en vídeo ya no parece ser suficiente para catalogarlo como cierto.
Como ejemplo de esto último, el departamento de verificación de hechos (fact-checking) de Reuters publicó en 2020 la confirmación de que un vídeo emitido por la Casa Blanca era genuino, dado que hacía unas semanas que circulaba catalogado como deepfake. Sin embargo, analistas de inteligencia artificial y la propia Casa Blanca lo catalogaron como verídico. ✔️
¿Deepfakes usados como herramienta para cometer delitos?
Trump, Biden, Obama. Estos tres nombres comparten ser o haber sido presidentes de los Estados Unidos. Dado que son, junto con actores y actrices famosos, de los más falseados, cabría pensar que la gente corriente está a salvo de los deepfakes. Nada más lejos de la realidad.
La mencionada Oficina de Seguridad del Internauta recogió a finales de 2021 un caso de uso del deepfake a través del cual se producía un delito complejo: gracias a la inteligencia artificial se convencía a amigos y familiares de efectuar donaciones falsas. En el vídeo en cuestión, aparecía alguien solicitando a sus conocidos donar a determinada campaña para que niños con pocas posibilidades pudieran tener juguetes las pasadas Navidades.
Obviamente, la campaña era falsa. Pero ¿cómo puede uno protegerse ante algo así? En este caso, la clave estaba en analizar el canal desde el cual venía el vídeo: parecía el canal oficial de la víctima duplicada, pero no lo era. Por ejemplo, un vídeo falso de “0range” podría pasar por un vídeo real de “Orange”. Claro, que darse cuenta de la diferencia exige un ojo atento. (La primera ‘O’ es en realidad un ‘0’).
Las referencias políticas no son aleatorias. Hoy se sabe que las redes sociales afectan a las decisiones democráticas de formas complejas y pasionales, y los deepfakes prometen ser el próximo combustible de la desinformación. Librarse de ellos es labor de todos: políticos, periodistas, verificadores y, por supuesto, ciudadanía que (informada) no los comparte.
Imágenes | Library of Congress