Detección de deepfakes: un reto tecnológico emergente

La interminable lucha contra los medios generados por la inteligencia artificial


Es muy probable que, al navegar por Internet, todos nos hayamos topado alguna vez con un vídeo deepfake. Los deepfakes suelen mostrar a personas conocidas haciendo cosas realmente inverosímiles, comoa reina de Inglaterra bailando sobre su mesa o Ron Swanson de Parks and Recreations protagonizando todos los personajes de la serie Full House . Estos dos ejemplos de vídeos generados por la IA son realmente fáciles de detectar y, en primer lugar, nunca se pretendió que se tomaran en serio. Sin embargo, la tecnología para producir este tipo de vídeos ya está muy extendida y cualquiera con suficiente interés y tiempo puede intentar crear uno. Aquí es donde el tema se pone serio y potencialmente peligroso. Hasta hace poco, era muy fácil detectar un vídeo creado por la IA si se prestaba atención a uno de los siguientes indicios:

  • la iluminación no coincide con el resto de la escena;
  • el audio no está sincronizado;
  • hay partes desenfocadas, principalmente en las zonas del cuello y el pelo;
  • hay zonas de la piel que no coinciden con el resto del color de la piel del sujeto;

Pero a medida que avanzan los modelos de IA, estos pequeños fallos ya no nos ayudarán a distinguir lo auténtico de lo falso. Pero primero, averigüemos cómo se crean esos vídeos.

¿Cómo se crean los deepfakes?

No hace mucho, hablamos del papel de las redes generativas adversariales (GAN) en la creación de imágenes falsas. En el caso de los vídeos deepfake, primero una red neuronal artificial (ANN, del ingles Artificial Neural Network), llamada autoencoder, analiza los vídeos y las fotos del sujeto en diferentes ángulos y aísla las características esenciales que descubre. A partir de estas características, la ANN sería capaz de generar nuevas imágenes del sujeto. Pero como necesitamos intercambiar el sujeto con otro (o en este caso, la cara del sujeto), utilizamos otra ANN para reconstruir nuestro sujeto, una ANN entrenada con muestras del sujeto con el que queremos intercambiar la cara. Esta otra ANN reconstruye entonces la cara del sujeto, imitando los patrones de comportamiento y del habla que la primera ANN aprendió. Después, una GAN busca los fallos y mejora y pule los resultados hasta hacerlos casi perfectos.

Y aquí está el problema de la detección de deepfakes: dado que los deepfakes se crean utilizando un entrenamiento adversarial, el algoritmo que crea los fakes mejorará cada vez que se introduzca en nuevos sistemas de detección. Es una lucha que no se puede ganar, porque las redes adversarias están diseñadas para perfeccionarse siempre. 

Abuso de los deepfakes y problemas emergentes

Como todo gran invento, la generación de imágenes o discursos artificiales puede ser un arma de doble filo. El aprendizaje automático es cada vez mejor en todo lo que hace y aunque ahora mismo, distinguir el original del trabajo de las IAs puede ser a veces muy fácil, las GANs son cada vez mejores y es sólo cuestión de tiempo que no haya forma de distinguirlas con sólo mirarlas o escucharlas. Estamos hablando de grabaciones de audio o vídeo que parecen muy genuinas pero no lo son. 

Ya se han registrado casos de fraudes en los que los medios generados por IA han desempeñado un papel importante. Un ejemplo es el de una empresa cuyo empleado fue estafado para que transfiriera una cantidad considerable de dinero. Recibió una llamada en la que lo que parecía ser su superior le ordenaba hacerlo. También recibió un correo electrónico confirmando esta transacción. Pero no sabía que la voz que escuchaba no era la de su jefe, sino una muy buena imitación, generada por los estafadores.  

Otro ejemplo de uso indebido de la IA y un problema creciente es la creación de pornografía de aspecto auténtico, pero falseada, en la que se utiliza el rostro de la víctima para generar imágenes falsas de desnudos. Esto incluye tanto la pornografía de venganza como la falsa pornografía de celebridades. El daño que puede causar a las víctimas es evidente.

Además, existe la posibilidad de convertir los deepfakes en armas en las redes sociales, desinformando y manipulando a los usuarios. Imagina un vídeo viral de un político diciendo cosas que nunca ha dicho y manipulando a los usuarios para que piensen que la grabación es real. 

Los deepfakes también suponen una amenaza potencial para la tecnología de verificación de la identidad, ya que podrían permitir a los estafadores eludir los sistemas de reconocimiento facial biométrico. 

Por todo esto, el software de detección de deepfakes ha cobrado un gran interés.

Detección de Deepfakes

El problema de los modelos de detección de deepfakes

Los investigadores de IA están haciendo todo lo posible para desarrollar algoritmos que detecten los vídeos de deepfake. Pero se trata de un reto técnicamente exigente y difícil. Algunos de los modelos de detección de falsificaciones más interesantes son

  • análisis del parpadeo de los ojos: los modelos generativos responsables de la creación de los vídeos necesitan alimentarse con algunos datos de origen: imágenes del sujeto que tiene que imitar. Las imágenes que utilizaron los modelos de deepfake no contenían un número elevado de imágenes que representaran a personas con los ojos cerrados, lo que les llevó a generar secuencias en las que los patrones de parpadeo de los sujetos no eran naturales. 
  • estimación de la frecuencia cardíaca a distancia: este sistema de detección se centra en intentar detectar la frecuencia cardíaca del sujeto, buscando cambios sutiles en el color de la piel, para poder confirmar la presencia de sangre bajo la piel.
  • seguimiento de los pequeños movimientos faciales propios de cada individuo: este modelo se basa en aislar las expresiones faciales distintivas que son únicas para cada persona. A continuación, compara si estas expresiones están presentes en el vídeo evaluado del sujeto.

Hasta aquí, parece que estamos en camino de ganar la guerra a los deepfakes. Pero espera, hay una trampa. Como hemos dicho antes, las redes profundas responsables de generar estas imágenes falsas pueden ser entrenadas para aprender a evitar ser detectadas. Esto lleva a una situación de gato y ratón, en la que cada vez que se presenta un nuevo modelo de detección, poco después aparece un generador de deepfakes mejor entrenado. Un ejemplo real de esto es el modelo que detectaba las falsificaciones evaluando los patrones de parpadeo de los ojos de los sujetos. Poco después de que se publicara el artículo que describía este modelo de detección, los modelos de deepfake corrigieron este error. 

Deepfake Detection Challenge

Hasta hace poco faltaban grandes conjuntos de datos o puntos de referencia para entrenar modelos de detección. Y decimos hasta hace poco, porque gracias al Deepfake Detection Challenge (DFDC) organizado por Facebook junto con otros líderes de la industria y académicos, se compartió públicamente un enorme conjunto de datos de vídeos (más de 100.000). Gracias a este conjunto de datos, los participantes del DFDC pudieron entrenar y probar sus modelos de detección. Más de 2.000 participantes presentaron más de 35.000 modelos para el concurso. Los resultados se anunciaron el año pasado, y el modelo ganador alcanzó una precisión del 65%. Esto significa que el 35% de los vídeos fueron marcados como deepfakes aunque no lo eran (un error de "falso positivo"). Seamos sinceros, estas cifras no son demasiado impresionantes...

Programa SemaFor de DARPA

DARPA, la agencia estadounidense famosa por el desarrollo de tecnologías innovadoras, decidió subirse también al tren de la detección de deepfakes lanzando un programa llamado SemaFor (Semantics Forensics). Su objetivo es diseñar un sistema que pueda detectar automáticamente todo tipo de medios manipulados, combinando tres tipos diferentes de algoritmos: análisis de texto, análisis de audio y análisis de contenido de vídeo. Sus algoritmos se entrenarán con 250.000 artículos de noticias y 250.000 publicaciones en redes sociales, incluyendo 5.000 artículos falsos. 

Autentificador de vídeos de Microsoft

En septiembre de 2020, el gigante tecnológico Microsoft lanzó una herramienta diseñada para ayudar a distinguir los vídeos falsos proporcionando una probabilidad numérica -la puntuación de confianza- de que el medio haya sido manipulado por una IA. Decidierion que la herramienta no se hará pública directamente, porque entonces los creadores de deepfakes podrían utilizar su código para enseñar a sus modelos a evadir la detección.

Más allá de la detección de deepfakes

Cada vez que se publica un nuevo método de detección de manipulación de medios, es sólo cuestión de tiempo que sea superado por un algoritmo de creación de falsificaciones mejor y más inteligente. Por eso, para reducir los riesgos asociados a la difusión de contenidos multimedia falsificados, es necesario adoptar un enfoque más holístico. La solución parece estar en una combinación de

  • la autentificación de los medios de comunicación - mediante el uso de marcas de agua, huellas digitales o firmas en los metadatos de los medios de comunicación y el uso de tecnologías de blockchain;
  • la procedencia de los medios de comunicación - proporcionando información sobre el origen de los medios de comunicación y la búsqueda inversa de los mismos;

Conclusión

La capacidad de detectar falsos contenidos multimediales es uno de los principales retos a los que nos enfrentamos actualmente en el mundo de la tecnología. Irónicamente, cada vez que se publica un nuevo modelo de detección, se produce una mejora en los modelos de generación de fakes. De este modo, podemos esperar ver deepfakes mucho más creíbles y realistas en el futuro. Para luchar contra el uso indebido de estos medios, es necesario adaptar medidas adicionales como la autenticación y la procedencia de los medios.

Imagen de Gerd Altmann from Pixabay

 
 
Iveta Karailievova

Iveta Karailievova

Originally coming from a marketing background, decided to turn her life around and immerse herself into the wonderful exciting and most importantly – never boring world of technology and web development. Proud employee at MA-NO . Easily loses track of time when enjoying working on code. Big fan of Placebo, cats and pizza.

 
 
 

Artículos relacionados

La falsa empatía de la Inteligencia Artificial: un riesgo subestimado

La empatía, una emoción humana compleja y profunda, involucra tanto componentes cognitivos como emocionales, lo que permite no solo comprender la perspectiva de otra persona, sino también sentir lo que…

El Fediverso, la nueva frontera sin limites de las redes sociales

La gente quiere comunicarse por Internet con la misma facilidad que en la vida real, con protecciones similares pero, potencialmente, con mayor alcance. En otras palabras, la gente quiere poder…

GnuPG, el software libre de cifrado y firma digital

En criptografía, el cifrado es el proceso de codificación de la información. En este proceso convierte la representación original de la información, conocida como texto plano, en una forma alternativa…

¿Cómo facilitar tu vida con ChatGPT?

Ya hemos escrito varios articulos sobre la inteligencia artificial que está revolucionando el mundo, pero esta vez hablaremos de cómo te puede ayudar con tareas diarias y así ahorrarte tiempo…

Top herramientas para la gestión de redes sociales

A día de hoy sabemos que tener presencia en las redes sociales es cada vez más importante si quieres impulsar tu negocio y llegar a mucha más audiencia Pero primero de todo, ¿Qué…

El futuro laboral bajo la sombra de la automatización

La automatización y el avance de la tecnología han generado preocupación en algunos sectores sobre la posibilidad de que los robots quiten el trabajo a los humanos. Si bien es…

¿La inteligencia artificial dejará sin trabajo a los programadores?

Uno de los temas más debatidos en relación a la inteligencia artificial es la posibilidad de que los puestos de trabajo sean reemplazados debido a la automatización de los procesos…

Las cinco leyes de la Ingeniería de Software aplicadas a la Inteligencia Artificial

En su artículo titulado The Five Laws of SE for AI (Cinco leyes de la Ingeniería de Software para la Inteligencia Artificial), Tim Menzies reflexiona sobre el papel que desempeña…

Es sexista la IA? Una perspectiva de género en la robótica y en la inteligencia artificial

En su artículo, Maria Antonia Huertas Sánchez de la UOC - Universitat Oberta de Catalunya, nos brinda una explicación sobre por qué deberíamos incorporar una visión de género en la…

Qué es Docker y cómo empezar a usarlo.

Docker es una plataforma creada con el fin de desarrollar, implementar y ejecutar aplicaciones dentro de contenedores, lo cual permite a los desarrolladores hacer el empaquetado de dichas aplicaciones junto…

Metaverso vs. multiverso vs. omniverso: Diferencias clave

A medida que aumenta el interés por el metaverso, también se acelera el debate sobre la terminología utilizada para describir el concepto de entornos digitales tridimensionales inmersivos. A veces se…

Nuevas herramientas de inteligencia artificial que debes conocer

Nuevas herramientas de inteligencia artificial que debes conocer Estamos muy cerca de 2023 y todos esperamos una explosión de herramientas basadas en IA en el nuevo año y con razón... Si…