edición general
162 meneos
4188 clics
"Caras maestras" que pueden eludir más del 40% de los sistemas de autentificación facial [inglés]

"Caras maestras" que pueden eludir más del 40% de los sistemas de autentificación facial [inglés]

Investigadores israelíes han desarrollado una red neuronal capaz de generar caras "maestras", es decir, imágenes faciales capaces de suplantar varias identificaciones. El trabajo sugiere que es posible generar esas "claves maestras" para más del 40% de la población utilizando solo 9 rostros sintetizados por la red StyleGAN Generative Adversarial. Al probar el sistema, los investigadores descubrieron que un solo rostro generado podía desbloquear el 20% de todas las identidades de la base de datos de código abierto Labeled Faces in the Wild.

| etiquetas: reconocimiento
  1. Si, justo ahora que las mascarillas empiezan a formar parte de nuestras vidas...
  2. Orwell ya nos queda pequeño
  3. La segunda me recuerda a...  media
  4. Ala, a tomar por culo el acceso por reconocimiento facial. :troll:
  5. Pobre Mercadona, no le habría funcionado :clap: :wall:
  6. El título no coincide con el paper. Debería ser "caras que confunden a sistemas académicos de reconocimiento facial". Básicamente han producido caras bidimensionales que se parecen a varias caras reales a la vez.

    Ya sé que suena parecido, pero reconocimiento facial y autenticación facial son cosas, aunque relacionadas, muy distintas. De entrada la mayoría de los sistemas de autenticación usan infrarojos (siendo Face ID el más común) para hacer un modelo 3D de la cara, así que una foto nunca va a funcionar.
  7. #1 Yo también lo creo y es aterrador.
  8. Me encanta el término asociado a las llaves. Muy bien traído.
  9. #1 y que tiene que ver esta noticia? Es porque hay una cara?
  10. A ver, tampoco me parece tan raro.
    Si miráis la noticia que pongo aquí, indica que en EEUU un adolescente negro se le prohibió el acceso a un skating porque su sistema de identificación de cara dijo que era otra persona que un tiempo atrás la lio cuando lo unico que tenían en común era que son dos adolescentes negros. Más fácil creo que no lo pueden poner...

    blavity.com/black-teen-barred-from-skating-rink-after-being-misidentif
  11. #5 Es que el rostro nunca debería otorgar accesso. La cara es el ID y falta la contraseña. Basta con pensar en unos gemelos...

    Hace años vi que se usaba también una cámara ultravioleta que captaba peculiaridades únicas y permitia discernir entre gemelos. Pero aún así, sigue sin ser buena idea.
  12. #12 si, si. Totalmente cierto, mi hermano gemelo me desbloquea al móvil
  13. #7 Da igual, se podría engañar un modelo 3D también, la idea es la misma, sólo un poco más compleja. Pero tampoco es para correr en círculos como dice #1. Esto se puede hacer por un motivo muy sencillo: las redes de deep learning clásicas tienen más agujeros que un queso de gruyère. Mini-resumen de los adversarial attacks clásicos (esto es una variante más compleja, pero parten del mismo concepto):

    - Una red de deep learning se compone de una serie de parámetros (que llamaremos pesos) a entrenar. Suelen ser muchos (del orden de millones de parámetros o miles de millones, como en la famosa GPT-3). ¿Y cómo se entrenan me diréis? Pues con muchos datos de entrada y una función de coste. Esta función de coste tiene que tener dos peculiaridades: ser positiva y derivable con respecto a todos los pesos, y que cuando sea cero nos indique que hace perfectamente el objetivo que le hemos encomendado (perfecto con los datos de entrenamiento, luego recibirá datos que nunca ha visto antes y funcionará bien o no, esto no es seguro). Las redes se entrenan minimizando esa función de coste, usando la pendiente de la derivada para decidir hacia dónde movemos los pesos.

    - Una vez entrenada la red, nos proponemos engañarla. ¿Cómo se hace esto? Pues dado unos datos que entrada, cuya salida es perfecta, lo que queremos es modificarlos levemente, con el objetivo de que cambie la salida. Es tan sencillo como hacer lo mismo que hablamos de entrenar los pesos de la red, con la diferencia de que ahora lo que entrenamos es la entrada.

    - Pongamos un ejemplo: digamos que tenemos un sistema de clasifica imágenes de animales. Y tenemos una foto de un perro, que nuestro sistema clasifica perfectamente (está un 99% seguro que es un perro). Entonces, ¿cuánto hay que modificar la imagen del perro para que el sistema crea que la salida es un elefante, con un 99% de precisión? Pues la respuesta real es que muy poco. Es más, el ojo humano difícilmente va a notar la diferencia entre la imagen real y la imagen trucada (aquí podéis ver algún ejemplo: spectrum.ieee.org/hacking-the-brain-with-adversarial-images#toggle-gdp).

    - ¿Se puede evitar este problema? Se puede mitigar, pero ahora mismo no hay ningún sistema que sea capaz de eliminarlo completamente. El problema es que para resolverlo completamente habría que mapear todo el espacio de entrada (si tienes dos variables, recorrer todas las combinaciones posibles), pero en imágenes con millones de píxeles, esto es muy difícil de hacer.

    - ¿Qué hace el sistema de este paper? Pues algo parecido, con la salvedad de que modifica los vectores aleatorios que se usan para generar imágenes con la red StyleGAN (es esa red que genera fotos superrealistas que tanto gustan a las noticias).

    - ¿Por qué es algo más complejo que lo que acabo de contar? Porque la función de coste que ellos usan rompe lo que os decía anteriormente: no es derivable. Así que usan otro tipo de técnicas (algoritmos genéticos si vi bien) que también pueden ser usadas para el mismo cometido, pero son muuuuucho más lentos.

    - Ellos dicen que esto es más potente que lo que ya hay porque no requiere conocer cómo está entrenado el sistema que quieren engañar, pero lo que sí necesitan son los datos que han sido usados para entrenarla, así que tampoco hay que correr en círculos ya. No dejan de ser aplicaciones académicas para alertar de la problemática de estas redes.

    No sé si me he dejado algo sin explicar (o si lo he hecho comprensible al lego en el tema :shit: ).
  14. El sistema biométrico definitivo será el escaner anal.
  15. #14 Eh, no me has dicho nada nuevo, pero ayudará a otros.

    #0 "ataca" sistemas que buscan identificar la cara, no si la cara es verdadera; el primero es un problema con muchas menos restricciones y las redes usadas son más para clasificar gente en fotos que para otra cosa, el segundo usa otro tipo de parámetros que no son evaluados aquí en absoluto, y cuya variabilidad es muy muy limitada.

    Una cara bidimensional simplemente puede estar en tantos ángulos, con tantos gestos, y con tan dispares niveles y ángulos de iluminación que la identificación no puede ser estricta si se quiere que sea funcional; simplemente pierde demasiada información en 3D->2D y hay cantidades absurdas de ruido en términos de iluminación, así que encontrar ejemplos que den falsos positivos en varios modelos no tiene nada de sorpendente.

    En IR/3D la cosa cambia y los niveles de ambigüedad se evaporan, tanto que el uso de ML/DL de este lado es mínimo, así que no hay una RNN a la que engañar propiamente dicha, sino a modelos estadísticos relativamente rígidos.

    ¿Puedes vencer a FaceID? Pues sí, puedes copiar la forma de una cara, imitar el nivel de reflexión de IR de distintos tipos y ángulos de piel (y ojos). Y acabas con un animatronic que se parece a la persona que intentas suplantar. Pero el umbral de autenticación es mucho más alto, así que obtener una cara que se pueda parecer a varias en un sistema de autenticación generalmente significa que esas dos caras ya eran, de entrada, muy parecidas entre sí

    Muchas veces, aunque no siempre, hasta gemelos idénticos son identificados correctamente como personas distintas por Face ID y Windows Hello, por esas pequeñas diferencias en estructura ósea, así que la posibilidad de que una cara funcione con dos caras razonablemente distintas es nula.

    Simplificando mucho mucho, tu DL no va a encontrar un x fuera de (1,2) que cumpla 1 < x < 2.
  16. #16 Solo que cuando saquen el ano maestro, el dispositivo tendrá forma fálica para un reconocimiento biométrico rectal para así cerrar el círculo...
  17. #15 Nunca. Salvo que los humanos evolucionen hasta una cara plana, entonces sí.
  18. #19 O hasta que desarrollen caras maestras que simulen el 3D.
  19. #20 Ya, y 2 + 2 = 4 hasta que deje de serlo :-S
  20. #17 Obviamente es más difícil, pero la idea es la misma, y los problemas también. Estas partiendo de un concepto erróneo que es creer que la falsificación tiene que ser muy similar a la original, y no es el problema que explotan este tipo de ataques. Estos ataques se centran en atacar el espacio que no está mapeado en tu entrenamiento.

    ¿Que en la práctica es muy difícil de engañarlo? Pues claro, por eso mencionaba que son ejemplos académicos, requieren que tengan mucha información que en un entorno real no vas a ser capaz de obtener. Pero el 3D tiene la misma problemática que el 2D, aunque más compleja.

    Te paso algún artículo para que veas que el 3D también se puede atacar: arxiv.org/pdf/2104.12146.pdf
  21. ningún humano brillante podrá inventar nunca nada que otro humano malicioso no pueda trampear
  22. #16 Para hackearlo habrá que meter un consolador maestro... :troll:
comentarios cerrados

menéame