Los investigadores del ejército han desarrollado un método de detección Deepfake que permitirá la creación de tecnología de soldado de última generación para respaldar las tareas básicas de la misión, como la detección y el reconocimiento de amenazas enemigas.
Este trabajo se centra en particular en el entrenamiento ligero, de baja complejidad y en una técnica biométrica facial altamente eficiente que cumple con los requisitos de tamaño, peso y potencia de los dispositivos que los soldados necesitarán en combate.
Los científicos del Comando de Desarrollo de Capacidades de Combate del Ejército de los Estados Unidos, conocido como DEVCOM, Laboratorio de Investigación del Ejército, en colaboración con el profesor C.-C. El grupo de investigación Jay Kuo de la Universidad del Sur de California se ha propuesto enfrentar la importante amenaza que Deepfake representa para nuestra sociedad y la seguridad nacional. El resultado es una solución tecnológica innovadora llamada DefakeHop. Los científicos trabajaron bajo el premio de investigación del director del laboratorio para la iniciativa de cooperación externa y el Instituto de Innovación de IA del Ejército.
Su trabajo aparece en un artículo titulado “DefakeHop: un detector de pliegues de aguas profundas liviano y de alto rendimiento” que se dará a conocer en la Conferencia y Exposición Internacional Multimedia 2021 IEEE en julio.
Deepfake se refiere al contenido de video hiperrealista sintetizado por inteligencia artificial que retrata falsamente a personas diciendo o haciendo algo, dijeron los científicos de ARL, la Dra. Suya You y la Dra. Shuowen (Sean) Hu. La mayoría de los métodos de detección de video profundo y análisis forense de medios de vanguardia se basan en el aprendizaje profundo, que tiene muchas debilidades inherentes en términos de robustez, escalabilidad y portabilidad.
“Debido al desarrollo de redes neuronales generativas, el deepfake basado en IA se está desarrollando tan rápidamente que faltan técnicas fiables para detectar y defenderse contra deepfakes”, dijo. “Existe una necesidad urgente de un paradigma alternativo para comprender el mecanismo detrás del asombroso desempeño de los deepfakes y para desarrollar soluciones de defensa efectivas con un sólido apoyo teórico”.
Combinando la experiencia de los miembros del equipo con el aprendizaje automático, el análisis de señales y la visión por computadora, los científicos desarrollaron una teoría y un marco matemáticos innovadores, el aprendizaje subespacial sucesivo, o SSL, como una arquitectura de red neuronal innovadora. SSL es una innovación clave de DefakeHop, encontraron los investigadores.
“SSL es un marco matemático completamente nuevo para la arquitectura de redes neuronales, derivado de la teoría de transformación de señales”, dijo Kuo. “Es radicalmente diferente del enfoque tradicional, ya que ofrece una nueva representación y proceso de señal que involucra múltiples matrices de transformación en una cascada. Es muy adecuado para datos multidimensionales que tienen estructuras de covarianza de corto, medio y largo alcance. SSL utiliza esta característica de forma natural en su diseño. Es una plataforma completa sin supervisión basada en datos que ofrece una herramienta completamente nueva para el procesamiento de imágenes y la comprensión de tareas como la biometría facial ”.
La mayoría de las técnicas de detección de video profundo y métodos forenses de última generación se basan en el aprendizaje profundo, dijo el Señor.
Según el equipo, DefakeHop tiene varias ventajas significativas sobre el inicio del arte actual, que incluyen:
- Se basa en una teoría de transformación y representación de señales SSL completamente nueva. Es matemáticamente transparente porque se pueden explicar sus módulos internos y su procesamiento.
- Es un enfoque mal supervisado, que proporciona un mecanismo de aprendizaje de una sola pasada (sin necesidad de propagación hacia atrás) para ahorrar costos de etiquetado con mucha menos complejidad de capacitación.
- Genera tamaños y parámetros de modelo mucho más pequeños. Su complejidad es mucho menor que la de los más modernos y se puede implementar con éxito en dispositivos tácticos y plataformas de borde.
- Es resistente a los ataques adversarios. Archivo aprendizaje profundo el enfoque es propenso a ataques contradictorios. Estos estudios proporcionan una sólida representación espacial-espectral para limpiar a los oponentes de entrada para que pueda defenderse de manera efectiva y eficiente contra perturbaciones no deseadas.
Esta investigación respalda los esfuerzos militares y de laboratorio en inteligencia artificial y aprendizaje automático al presentar y examinar la innovadora teoría del aprendizaje automático y sus algoritmos computacionales aplicados a la percepción, representación y procesamiento inteligentes, dijo.
“Esperamos que los futuros soldados usen dispositivos de visión inteligentes pero extremadamente pequeños y poderosos en el campo de batalla”, dijo. “La solución de aprendizaje automático actual es demasiado sensible a un entorno de datos específico. Cuando los datos se recopilan en un entorno diferente, la red requiere reentrenamiento, lo que es difícil de hacer en un sistema integrado. La solución desarrollada tiene muchas características deseables, incluido un tamaño de modelo pequeño, que requiere una cantidad limitada de datos de entrenamiento, con una baja complejidad de entrenamiento y capaz de procesar imágenes de entrada de baja resolución. Esto podría conducir a soluciones innovadoras con aplicaciones de gran alcance para el ejército del futuro ”.
Los investigadores aplicaron con éxito el principio SSL para abordar varios problemas biométricos faciales y problemas generales de comprensión de la escena. Junto con el trabajo de DefakeHop, desarrollaron un nuevo enfoque basado en SSL llamado FaceHop para el reconocimiento de problemas difíciles y la clasificación de género facial en entornos de baja calidad de imagen y baja resolución.
El equipo continúa desarrollando soluciones novedosas y avances científicos en biometría facial y comprensión general del paisaje, como detección de objetivos, reconocimiento y comprensión de escenas semánticas.
“Todos hemos visto el impacto significativo de la IA en la sociedad, tanto bueno como malo, y la IA cambia muchas cosas”, dijo Hu. “Deepfake es un ejemplo negativo. La creación de imágenes sofisticadas generadas por computadora se ha demostrado durante décadas mediante el uso de una variedad de efectos visuales en la industria del entretenimiento, pero los avances recientes en inteligencia artificial y aprendizaje automático llevó a un aumento dramático en el realismo del contenido falso y la facilidad de acceso a estas herramientas “.
El equipo de investigación tiene la oportunidad de abordar estos difíciles problemas que afectan tanto al ejército como a la vida cotidiana.
“Vemos esta investigación como nueva, de vanguardia, actualizada y técnicamente factible hoy”, dijo. “Es una empresa transformadora, de alto riesgo e innovación. Anticipamos que esta investigación proporcionará soluciones con ventajas significativas sobre las técnicas actuales y agregará nuevos conocimientos importantes a las ciencias de la inteligencia artificial, la visión por computadora, la comprensión inteligente de la escena y la biometría facial. “.
Hong-Shuo Chen y col. DefakeHop: un detector Deepfake ligero y de alto rendimiento. arXiv: 2103.06929 [cs.CV] arxiv.org/abs/2103.06929
Entregado por
Laboratorio de Investigaciones Militares