Esta técnica viene de ‘Deep Learning’, traducido como aprendizaje profundo, una de las corrientes de la Inteligencia Artificial. Que hay detrás de la herramienta que se utiliza con la intención de crear contenido falso.
La tecnología no siempre tiene un fin positivos. También, puede ser utilizada para manipular y crear contenidos que nunca fueron reales. Un caso puede ser las manipulaciones de video donde, por ejemplo, un software analiza el material de origen, extrae una parte y luego inserta este en otro video. A este proceso -cada vez más utilizado- se lo denomina deepfake y aparece cuando se realiza el intercambio de cara para generar contenido falso.
Para realizar esta modificación de caras, se introducen las imágenes codificadas en el decodificador contrario para que este reconstruya el rostro de la otra persona. Es decir, una imagen codificada del rostro A se alimenta al decodificador entrenado en el rostro B. El decodificador se encarga de reconstruir el rostro B con las expresiones y la orientación del rostro A, para obtener una imagen convincente.
Fue en 2019 cuando se produjo el primer delito cibernético por medio de la inteligencia artificial, específicamente sobre el deepvoice. Unos cibercriminales hicieron creer, utilizando Deepvoices, a un ejecutivo que estaba hablando con el CEO de su empresa, haciendo que les transfiriese más de 250.000 dólares.
La empresa Sentinel identificó desde 2019 un crecimiento del 900 % de los deepfakes cuando se pasó de 14.500 a 145.000. La mayoría fueron compartidos en redes sociales y tuvieron cerca de 6.000 millones de visualizaciones.
Sin embargo, no son el único medio de falsificación. La tecnología deepfake permite crear fotos ficticias desde cero. Se han conocido casos como el «Katie Jones», un perfil que afirma trabajar en el Centro de Estudios Estratégicos e Internacionales de EEUU, pero que, se cree, fue creado para realizar operaciones de espionaje en el extranjero.
La posibilidad de esta acción se debe a la inteligencia artificial, la disciplina en la que un programa de computación es diseñado para replicar esa facultad humana que permite aprender, entender, razonar, tomar decisiones y formarnos una idea de la realidad. Y, en particular, del machine learning, que tiene entre sus aplicaciones el procesamiento y análisis de enormes cantidades de datos, que serían imposibles de manejar a través de otro método.
Existe un segundo método llamado Red Generativa Antagónica, o GAN. Una GAN enfrenta dos algoritmos de IA: el primero -generador- se alimenta de ruido aleatorio y lo convierte en una imagen. Esta imagen sintética se añade a un flujo de imágenes reales -de un famoso, por ejemplo- que se alimentan en el segundo algoritmo, conocido como discriminador.
Al principio, las imágenes sintéticas no se parecerán en nada a las caras, pero si el proceso se repite muchas veces, tanto el discriminador como el generador mejoran. Si se realizan suficientes ciclos de ensayo y error, ese generador comenzará a producir rostros totalmente realistas en situaciones inexistentes.
¿Cómo se pueden detectar los deepfakes?
Tanto si se trata de un video como de una imagen, hay algunos detalles a las que hay que prestar atención para detectar un deepfake:
- Detalles de la piel que no coinciden (demasiado lisa o demasiado arrugada, o su edad parece desviada en comparación con el cabello).
- Sombras alrededor de los ojos.
- Errores de deslumbramiento en los lentes.
- Vello facial poco realista.
- Lunares poco realistas.
- Demasiado o poco parpadeo.
- Color de los labios que no coincide con la cara.
- Movimiento poco realista de la boca.
La mayoría de los deepfakes dejan la sensación de que algo está mal, y eso es porque hay errores en el proceso que dejan residuos. Los anteriores son algunos puntos clave que se pueden entrenar para que el ojo humano los detecte. Junto con otras técnicas de verificación de identidad.
Los gobiernos, las universidades y las empresas tecnológicas están financiando la investigación para detectar los deepfakes más sofisticados. En el 2019 se lanzó el primer Deepfake Detection Challenge, respaldado por Microsoft, Facebook y Amazon.
Por su parte, Facebook prohibió los deepfakes que puedan inducir a los espectadores a pensar que alguien “diga palabras que en realidad no ha dicho”, con el objetivo de resguardar las campañas políticas en Estados Unidos.
Sin más, los consumidores de contenidos deberán estar alertas y con el ojo fino para descubrir y desenmascarar lo que en un corto plazo puede significar un gran problema.
Aún no hay comentarios