Detección de deepfakes: un reto tecnológico emergente

La interminable lucha contra los medios generados por la inteligencia artificial



Es muy probable que, al navegar por Internet, todos nos hayamos topado alguna vez con un vídeo deepfake. Los deepfakes suelen mostrar a personas conocidas haciendo cosas realmente inverosímiles, comoa reina de Inglaterra bailando sobre su mesa o Ron Swanson de Parks and Recreations protagonizando todos los personajes de la serie Full House . Estos dos ejemplos de vídeos generados por la IA son realmente fáciles de detectar y, en primer lugar, nunca se pretendió que se tomaran en serio. Sin embargo, la tecnología para producir este tipo de vídeos ya está muy extendida y cualquiera con suficiente interés y tiempo puede intentar crear uno. Aquí es donde el tema se pone serio y potencialmente peligroso. Hasta hace poco, era muy fácil detectar un vídeo creado por la IA si se prestaba atención a uno de los siguientes indicios:

  • la iluminación no coincide con el resto de la escena;
  • el audio no está sincronizado;
  • hay partes desenfocadas, principalmente en las zonas del cuello y el pelo;
  • hay zonas de la piel que no coinciden con el resto del color de la piel del sujeto;

Pero a medida que avanzan los modelos de IA, estos pequeños fallos ya no nos ayudarán a distinguir lo auténtico de lo falso. Pero primero, averigüemos cómo se crean esos vídeos.

¿Cómo se crean los deepfakes?

No hace mucho, hablamos del papel de las redes generativas adversariales (GAN) en la creación de imágenes falsas. En el caso de los vídeos deepfake, primero una red neuronal artificial (ANN, del ingles Artificial Neural Network), llamada autoencoder, analiza los vídeos y las fotos del sujeto en diferentes ángulos y aísla las características esenciales que descubre. A partir de estas características, la ANN sería capaz de generar nuevas imágenes del sujeto. Pero como necesitamos intercambiar el sujeto con otro (o en este caso, la cara del sujeto), utilizamos otra ANN para reconstruir nuestro sujeto, una ANN entrenada con muestras del sujeto con el que queremos intercambiar la cara. Esta otra ANN reconstruye entonces la cara del sujeto, imitando los patrones de comportamiento y del habla que la primera ANN aprendió. Después, una GAN busca los fallos y mejora y pule los resultados hasta hacerlos casi perfectos.

Y aquí está el problema de la detección de deepfakes: dado que los deepfakes se crean utilizando un entrenamiento adversarial, el algoritmo que crea los fakes mejorará cada vez que se introduzca en nuevos sistemas de detección. Es una lucha que no se puede ganar, porque las redes adversarias están diseñadas para perfeccionarse siempre. 

Abuso de los deepfakes y problemas emergentes

Como todo gran invento, la generación de imágenes o discursos artificiales puede ser un arma de doble filo. El aprendizaje automático es cada vez mejor en todo lo que hace y aunque ahora mismo, distinguir el original del trabajo de las IAs puede ser a veces muy fácil, las GANs son cada vez mejores y es sólo cuestión de tiempo que no haya forma de distinguirlas con sólo mirarlas o escucharlas. Estamos hablando de grabaciones de audio o vídeo que parecen muy genuinas pero no lo son. 

Ya se han registrado casos de fraudes en los que los medios generados por IA han desempeñado un papel importante. Un ejemplo es el de una empresa cuyo empleado fue estafado para que transfiriera una cantidad considerable de dinero. Recibió una llamada en la que lo que parecía ser su superior le ordenaba hacerlo. También recibió un correo electrónico confirmando esta transacción. Pero no sabía que la voz que escuchaba no era la de su jefe, sino una muy buena imitación, generada por los estafadores.  

Otro ejemplo de uso indebido de la IA y un problema creciente es la creación de pornografía de aspecto auténtico, pero falseada, en la que se utiliza el rostro de la víctima para generar imágenes falsas de desnudos. Esto incluye tanto la pornografía de venganza como la falsa pornografía de celebridades. El daño que puede causar a las víctimas es evidente.

Además, existe la posibilidad de convertir los deepfakes en armas en las redes sociales, desinformando y manipulando a los usuarios. Imagina un vídeo viral de un político diciendo cosas que nunca ha dicho y manipulando a los usuarios para que piensen que la grabación es real. 

Los deepfakes también suponen una amenaza potencial para la tecnología de verificación de la identidad, ya que podrían permitir a los estafadores eludir los sistemas de reconocimiento facial biométrico. 

Por todo esto, el software de detección de deepfakes ha cobrado un gran interés.

Detección de Deepfakes

El problema de los modelos de detección de deepfakes

Los investigadores de IA están haciendo todo lo posible para desarrollar algoritmos que detecten los vídeos de deepfake. Pero se trata de un reto técnicamente exigente y difícil. Algunos de los modelos de detección de falsificaciones más interesantes son

  • análisis del parpadeo de los ojos: los modelos generativos responsables de la creación de los vídeos necesitan alimentarse con algunos datos de origen: imágenes del sujeto que tiene que imitar. Las imágenes que utilizaron los modelos de deepfake no contenían un número elevado de imágenes que representaran a personas con los ojos cerrados, lo que les llevó a generar secuencias en las que los patrones de parpadeo de los sujetos no eran naturales. 
  • estimación de la frecuencia cardíaca a distancia: este sistema de detección se centra en intentar detectar la frecuencia cardíaca del sujeto, buscando cambios sutiles en el color de la piel, para poder confirmar la presencia de sangre bajo la piel.
  • seguimiento de los pequeños movimientos faciales propios de cada individuo: este modelo se basa en aislar las expresiones faciales distintivas que son únicas para cada persona. A continuación, compara si estas expresiones están presentes en el vídeo evaluado del sujeto.

Hasta aquí, parece que estamos en camino de ganar la guerra a los deepfakes. Pero espera, hay una trampa. Como hemos dicho antes, las redes profundas responsables de generar estas imágenes falsas pueden ser entrenadas para aprender a evitar ser detectadas. Esto lleva a una situación de gato y ratón, en la que cada vez que se presenta un nuevo modelo de detección, poco después aparece un generador de deepfakes mejor entrenado. Un ejemplo real de esto es el modelo que detectaba las falsificaciones evaluando los patrones de parpadeo de los ojos de los sujetos. Poco después de que se publicara el artículo que describía este modelo de detección, los modelos de deepfake corrigieron este error. 

Deepfake Detection Challenge

Hasta hace poco faltaban grandes conjuntos de datos o puntos de referencia para entrenar modelos de detección. Y decimos hasta hace poco, porque gracias al Deepfake Detection Challenge (DFDC) organizado por Facebook junto con otros líderes de la industria y académicos, se compartió públicamente un enorme conjunto de datos de vídeos (más de 100.000). Gracias a este conjunto de datos, los participantes del DFDC pudieron entrenar y probar sus modelos de detección. Más de 2.000 participantes presentaron más de 35.000 modelos para el concurso. Los resultados se anunciaron el año pasado, y el modelo ganador alcanzó una precisión del 65%. Esto significa que el 35% de los vídeos fueron marcados como deepfakes aunque no lo eran (un error de "falso positivo"). Seamos sinceros, estas cifras no son demasiado impresionantes...

Programa SemaFor de DARPA

DARPA, la agencia estadounidense famosa por el desarrollo de tecnologías innovadoras, decidió subirse también al tren de la detección de deepfakes lanzando un programa llamado SemaFor (Semantics Forensics). Su objetivo es diseñar un sistema que pueda detectar automáticamente todo tipo de medios manipulados, combinando tres tipos diferentes de algoritmos: análisis de texto, análisis de audio y análisis de contenido de vídeo. Sus algoritmos se entrenarán con 250.000 artículos de noticias y 250.000 publicaciones en redes sociales, incluyendo 5.000 artículos falsos. 

Autentificador de vídeos de Microsoft

En septiembre de 2020, el gigante tecnológico Microsoft lanzó una herramienta diseñada para ayudar a distinguir los vídeos falsos proporcionando una probabilidad numérica -la puntuación de confianza- de que el medio haya sido manipulado por una IA. Decidierion que la herramienta no se hará pública directamente, porque entonces los creadores de deepfakes podrían utilizar su código para enseñar a sus modelos a evadir la detección.

Más allá de la detección de deepfakes

Cada vez que se publica un nuevo método de detección de manipulación de medios, es sólo cuestión de tiempo que sea superado por un algoritmo de creación de falsificaciones mejor y más inteligente. Por eso, para reducir los riesgos asociados a la difusión de contenidos multimedia falsificados, es necesario adoptar un enfoque más holístico. La solución parece estar en una combinación de

  • la autentificación de los medios de comunicación - mediante el uso de marcas de agua, huellas digitales o firmas en los metadatos de los medios de comunicación y el uso de tecnologías de blockchain;
  • la procedencia de los medios de comunicación - proporcionando información sobre el origen de los medios de comunicación y la búsqueda inversa de los mismos;

Conclusión

La capacidad de detectar falsos contenidos multimediales es uno de los principales retos a los que nos enfrentamos actualmente en el mundo de la tecnología. Irónicamente, cada vez que se publica un nuevo modelo de detección, se produce una mejora en los modelos de generación de fakes. De este modo, podemos esperar ver deepfakes mucho más creíbles y realistas en el futuro. Para luchar contra el uso indebido de estos medios, es necesario adaptar medidas adicionales como la autenticación y la procedencia de los medios.

Imagen de Gerd Altmann from Pixabay

 
 
Iveta Karailievova

Iveta Karailievova

Originally coming from a marketing background, decided to turn her life around and immerse herself into the wonderful exciting and most importantly – never boring world of technology and web development. Proud employee at MA-NO . Easily loses track of time when enjoying working on code. Big fan of Placebo, cats and pizza.

 
 
 

Artículos relacionados

Cómo elegir una plataforma de machine learning en la nube

Para crear modelos eficaces de aprendizaje automático y aprendizaje profundo, se necesitan grandes cantidades de datos, una forma de limpiarlos y realizar ingeniería en ellos, junto a un modelo de entrenamiento…

Fronteras de la comunicación: lenguaje e Inteligencia Artificial

En el libro “Cómo la vida imita al ajedrez” Garry Kasparov narra su historia y sus memorables partidas contra Karpov o Deep Blue. Deep Blue, así se llamaba el programa de…

7 Nuevos y Asombrosos Usos del Aprendizaje de Máquinas

Recientemente un extraño video publicado en YouTube causó una controversia - fue una divertida toma del tradicional mensaje navideño de la Reina Isabel creado por el Canal 4, una emisora de…

Imágenes generadas por GAN

Juguemos a un juego... ¿Adivinas qué tienen en común estos retratos?   Todas estas son personas inexistentes. Las imágenes fueron creadas por una inteligencia artificial. Podríamos decir que la IA "soñó" con…

3 maneras impresionantes en que la tecnología nos ayuda a combatir la pandemia de COVID

Los tiempos son difíciles ahora, que la humanidad una vez más se encuentra con una terrible pandemia. Pero en comparación con la pobre gente en 1918, cuando la gripe española…

Una nueva técnica revolucionaria, permite que la Inteligencia Artificial aprenda sin datos

El aprendizaje automático suele requerir numerosos ejemplos. Para conseguir que un modelo de IA reconozca un caballo, necesitas mostrarle miles de imágenes de caballos. Esto es lo que hace que…

Como crear un código QR para WhatsApp

Los códigos QR de WhatsApp pueden resultar útiles a la hora de compartir tu número con personas nuevas, tanto si gestionas una cuenta empresarial, un grupo de soporte u otras…

Desde Suecia una revolución: un fluido preserva la energía proveniente del Sol y permite utilizarla hasta 10 años después.

Si pudiéramos transformar toda la energía solar que llega a la Tierra, bastaría para resolver los problemas energéticos de la humanidad, pero aún hoy sufre un problema: la imposibilidad de…

De dioses y robots: batallas épicas entre mitos y tecnologías

Viajar en el tiempo hasta la antigüedad podría ayudarnos a visualizar el futuro de la humanidad. Según el mito griego, después de la creación de los humanos y de los animales,…

Debian lanza una convocatoria para el diseño de su nuevo desktop en la versión 11 BullsEye

Jonathan Carter del grupo de desarolladores de Debian acaba de lanzar una convocatoria para artistas digitales sobre la creación del nuevo tema oficial para Debian 11 Bullseye, a continuación su…

Facebook nos sugiere tres preguntas para reconocer las noticias falsas y no compartirlas

¿De dónde viene? ¿Qué falta? ¿Cómo te sientes? Estas son las tres preguntas que Facebook recomienda a todos los usuarios que se hagan antes de compartir las noticias. La iniciativa…

El mejor software y aplicaciones gratuitos de streaming en directo para todas las plataformas

Estamos en una lenta transición hacia un mundo hecho de transmisiones en streaming. Ya sea que quieras transmitir en vivo o capturar contenido de la web, las opciones son ilimitadas.…

Utilizamos cookies propias y de terceros para mejorar nuestros servicios, elaborar información estadística y analizar tus hábitos de navegación. Esto nos permite personalizar el contenido que ofrecemos y mostrarte publicidad relacionada con tus preferencias. Clicando en ‘Acepta todas’ aceptas el almacenamiento de cookies en tu dispositivo para mejorar la navegación en el sitio web, analizar el tráfico y ayudar en nuestras actividades de marketing. También puedes seleccionar ‘Sólo cookies de sistema’ para aceptar sólo las cookies necesarias para que la web funcione, o puedes seleccionar las cookies que quieres activar clicando en ‘Configuración’

Acepta todas Sólo cookies de sistema Configuración