Paso 1: Usa IA para hacer cambios indetectables en fotos al aire libre. Paso 2: libéralos en el mundo del código abierto y disfruta del caos.
Las preocupaciones sobre falsificaciones profundas (videos manipulados por máquinas de celebridades y líderes mundiales que supuestamente dicen o hacen cosas que realmente no hicieron) son pintorescas en comparación con una nueva amenaza: imágenes tergiversadas de la Tierra misma.
China es el líder reconocido en el uso de una técnica emergente llamada redes generativas antágonicas (GAN) para engañar a las computadoras para que vean objetos en paisajes o imágenes satelitales que no están allí, dice Todd Myers, director de automatización y director de información en la Oficina del Director de Tecnología en la Agencia Nacional de Inteligencia Geoespacial.
“Los chinos están muy por delante de nosotros. Esta no es información clasificada”, dijo Myers el jueves en la segunda cumbre anual de Genius Machines, organizada por Defense One yNextgov. “Los chinos ya han diseñado; Ya lo están haciendo en este momento, usando redes GAN, que son redes de confrontación generativas, para manipular escenas y píxeles para crear cosas por razones nefastas”.
Por ejemplo, dijo Myers, un adversario podría engañar a los analistas de imágenes asistidas por computadora para que informen que un puente cruza un río importante en un punto determinado.
“Entonces, desde una perspectiva táctica o una planificación de la misión, entrenas a tus fuerzas para ir por un camino determinado, hacia un puente, pero no está ahí. Luego te espera una gran sorpresa”, dijo.
Las GAN, descritas por primera vez en 2014, representan una gran evolución en la forma en que las redes neuronales aprenden a ver y reconocer objetos e incluso a detectar la verdad desde la ficción.
Digamos que le pide a su red neuronal convencional que averigüe qué objetos son cuáles en las fotos de satélite. La red dividirá la imagen en varias partes, o grupos de píxeles, calculará cómo esas partes rotas se relacionan entre sí y luego determinará cuál es el producto final, o si las fotos son reales o modificadas. Todo se basa en la experiencia de mirar muchas fotos de satélite.
Las GAN invierten ese proceso al unir dos redes entre sí, de ahí la palabra “antagónica”. Una red convencional podría decir: “La presencia de x, y y z en estos grupos de píxeles significa que esta es una imagen de un gato”. Pero una red GAN podría decir: “Esta es una imagen de un gato, por lo que x, y, y z deben estar presentes. ¿Qué son x, y, y z, y cómo se relacionan? “La red antagónica aprende cómo construir, o generar, x, y, y z de una manera que convence a la primera red neuronal, o al discriminador, de que algo está ahí. cuando, tal vez, no lo está.
Muchos estudiosos han encontrado que las GANs son útiles para detectar objetos y clasificar imágenes válidas de las falsas. En 2017, los académicos chinos utilizaron GAN para identificar carreteras, puentes y otras características en las fotos satelitales.
La preocupación, como los tecnólogos de IA le dijeron a Quartz el año pasado, es que la misma técnica que puede distinguir los puentes reales de los falsos también puede ayudar a crear puentes falsos que la IA no puede distinguir de los reales.
Cuando se trata de videos falsos de personas, los indicadores biométricos como el pulso y el habla pueden vencer el efecto falso. Pero el paisaje falso no es vulnerable a las mismas técnicas.
Incluso si puede derrotar a los GAN, muchos sistemas de reconocimiento de imagen pueden ser engañados al agregar pequeños cambios visuales a los objetos físicos en el ambiente, como los adhesivos agregados a las señales de alto que son apenas perceptibles para los conductores humanos pero que puede deshacerse de los sistemas de visión artificial, como ha demostrado el gerente del programa DARPA, Hava Siegelmann.