Con suficientes imágenes de origen, no es tan difícil de hacer Jordan Peele en el presidente Obama, Jimmy Fallon en John Olivero Jon Snow se convierte en portavoz de los fans decepcionados de Game of Thrones. Al principio, detectar deepfakes no era demasiado difícil; incluso los mejores tenían obsequios visuales como borrosidad, distorsión y extrañas diferencias faciales que los hacían parecer «apagados».
Sin embargo, es un juego del gato y el ratón, y parece que tan pronto como aprendemos un método para detectar falsificaciones profundas, la próxima generación corrige la falla. Para combatir eso, ¿existen soluciones confiables para descubrir qué videos están tratando de engañarnos?
Pistas visuales
Los artefactos no son solo cosas que Indiana Jones pone en los museos: también son pequeñas aberraciones que quedan después de manipular una imagen o un video. En los primeros deepfakes, estos a menudo se podían detectar con el ojo humano y los deepfakes malos aún pueden tener algunas señales de advertencia, como bordes borrosos, una cara demasiado alisada, cejas dobles, fallas o una sensación generalmente «antinatural» de cómo se ajusta la cara. .
Sin embargo, en su mayor parte, las técnicas ahora han mejorado hasta el punto en que estos artefactos solo son visibles para otros algoritmos que analizan los datos de video y examinan las cosas a nivel de píxeles. Algunos de ellos pueden ser bastante creativos, como una técnica que verifica si la dirección de la nariz coincide con la dirección de la cara. La diferencia es demasiado sutil para que los humanos la noten, pero las máquinas resultan ser bastante buenas en eso.
Pistas biométricas
Durante un tiempo pareció que la clave para desenmascarar las falsificaciones profundas era su falta de patrones de parpadeo naturales gracias a la relativa escasez de imágenes de origen con los «ojos cerrados». Sin embargo, no pasó mucho tiempo para que la próxima generación de tecnología deepfake incorporara un mejor parpadeo, lo que redujo rápidamente la efectividad de esa técnica.
Sin embargo, otros indicadores biométricos aún no se han descifrado por completo, como las peculiaridades individuales que los algoritmos no pueden automatizar fácilmente en un deepfake porque requieren cierta comprensión contextual del lenguaje que se utiliza. Los pequeños hábitos, como parpadear rápidamente cuando te sorprendes o levantar las cejas cuando haces una pregunta, pueden ser recogidos y utilizados por un deepfake, pero no necesariamente en los momentos adecuados, ya que no pueden (todavía) determinar automáticamente cuándo hacerlo. desplegar esos movimientos.
La inteligencia artificial que puede leer los latidos del corazón usando imágenes de video tiene muchas aplicaciones más allá de la detección de falsificación profunda, pero buscar los movimientos periódicos y los cambios de color que indican la frecuencia cardíaca puede ayudar a identificar impostores generados por IA. El regalo más obvio es cuando un deepfake no tiene ningún latido, pero los deepfakes a menudo tienen pulsos. Aun así, las irregularidades (como diferentes partes de la cara que muestran diferentes frecuencias cardíacas) aún pueden ayudar a identificar un deepfake.
proyectos de IA
Muchos nombres importantes están muy interesados en resolver el problema de las falsificaciones profundas. Facebook, Google, MIT, Oxford, Berkeley y muchas otras nuevas empresas e investigadores están abordando este problema entrenando inteligencia artificial para detectar videos falsos utilizando los métodos enumerados anteriormente, entre otros.
una cosa ambas Facebook y Google están trabajando es crear un conjunto de datos de videos de alta calidad de actores haciendo cosas, que luego usan para crear falsificaciones profundas. La IA entrenada en estos puede descubrir cuáles son los signos reveladores de las falsificaciones profundas y encargarse de detectarlas.
Por supuesto, esto solo funciona mientras los investigadores continúen generando deepfakes utilizando la tecnología más actualizada, lo que significa que siempre habrá un poco de retraso entre los trucos deepfake más nuevos que se descubren y estos algoritmos son capaces de detectarlos. Sin embargo, con un poco de suerte, los experimentos con ratones reales para identificar falsificaciones profundas funcionará y nos dará una ventaja.
Autenticación
Sin embargo, las tecnologías de detección no son la respuesta completa a las falsificaciones profundas, ya que probablemente nunca tendrán una tasa de éxito del 100 %. Los deepfakes a los que se les ha invertido algo de tiempo y dinero probablemente podrían pasar muchas pruebas de detección y métodos de IA actuales. Y recordemos cómo funciona Internet: incluso si se detectan estas falsificaciones, es probable que algún subconjunto de personas las recircule y las crea de todos modos.
Por eso también es importante tener algún tipo de mecanismo de verificación, alguna prueba de qué video es el original o algo que pueda indicar si un video ha sido modificado. Eso es lo que les gusta a las empresas. facto, ámbarvideoy Axioma están haciendo al codificar datos sobre videos en cadenas de bloques inmutables.
La idea básica detrás de muchos de estos proyectos es que los datos contenidos en un archivo de video o generados por una determinada cámara se pueden usar para generar una firma única que cambiará si se manipula el video. Eventualmente, los videos subidos a las redes sociales podrían incluir una opción para generar un código de autenticación que el usuario original podría registrar en una cadena de bloques para demostrar que eran los propietarios originales del video.
Estas soluciones tienen su propio conjunto de problemas, por supuesto, como codificaciones de video que cambian los datos en el archivo y alteran la firma sin que el contenido del video realmente cambie, o la edición de video legítima estropea la firma. Sin embargo, en situaciones de alto riesgo, como transacciones comerciales en las que se utilizan imágenes para verificar la entrega u obtener el apoyo de los inversores, tener una capa de autenticación como esta podría ayudar a prevenir el fraude relacionado con deepfake.
¿Son los deepfakes más peligrosos que Photoshop?
En este punto, todos asumimos que las imágenes pueden no ser reales porque somos plenamente conscientes de que existe la tecnología para hacer que casi cualquier cosa parezca real en una imagen fija. Eventualmente, podemos comenzar a abordar los videos con el mismo tipo de escepticismo, ya que falsificarlos se vuelve tan fácil y convincente como Photoshop hace actualmente la edición de imágenes. Sin embargo, incluso con la conciencia general, es fácil imaginar muchos incidentes de la vida real que comiencen con un deepfake oportuno y de alta calidad en un futuro no muy lejano.
Créditos de la imagen: Google/Face Forense, IA de Facebook, ámbarvideo
Danos tu opinión