Avatarify es un programa que superpone la cara de otra persona en la tuya en tiempo real durante videollamadas en aplicaciones como Skype o Zoom. El código está disponible en GitHub.
#2 Yo miré como emitir una grabación de sonido durante una llamada desde Android y por lo que vi está bloqueado a nivel de sistema operativo, de forma que cuando se habla por teléfono solo se envíe lo que sale del micrófono. Alegan que es por seguridad.
Desconozco si con las videollamadas y la imagen de la cámara hacen lo mismo.
#3 Habrá sistemas de deep learning que detecten los fakes. Pero si los "malos" tienen un sistema más avanzado de poco servirá. El uso de la tecnología entre los distintos grupos de poder va a escalar muy rápido y los civiles nos encontraremos en medio sin saber qué coño está pasando.
#15 Quizas en una resolucion e iluminacion adecuandos. Pero coge esto, lo metes en calidad camara de vigilancia y ensucias debidamente y ya te digo yo que no se nota tanto, a simple vista claro.
#12 Conoces las GAN? Se ponen dos algoritmos uno para crear, por ejemplo, una cara convincente y otro para diferenciar si es real o no. El primer algoritmo aprende del segundo y genera por ejemplo, cara sinteticas que no son humanamente diferenciable.s
Los que crearon las primera GAN tienen cierto temor de las consecuencias que pueden tener.
En xataca tienen bastante articulos www.xataka.com/inteligencia-artificial/conceptos-inteligencia-artifici
Muy interesante y preocupante....
#15#16 eso es cuestion de tiempo. Hemos vivido en el breve periodo de tiempo en el que fiarnos de que algo fotografiado o registrado es real y no inventado. Antes no existian los medios de registros y apartir de ahora se podran generar convincentemente.
#18 En eso estaba pensando, el mismo modelo sirve para ambas cosas, crear los fakes y detectarlos. Las dos redes se van haciendo mejores compitiendo entre ellas.
#4 en Instagram puedes ponerte la cara de los negros del ataud, Samsung en sus galaxy tienen monigotes que se te superponen, ya te digo yo que videollamada no está capado esto ni de coña.
#20 Desde luego, pero el escepticismo se basa en parte en la recopilación de evidencias, y lo que va a pasar con esto es que se podrán crear evidencias falsas...
#18 Y si el soporte es analógico?
Lo analógico todavía mantiene la carga de la prueba. Y si hacemos una copia de digital a analógico, me temo que siempre podrá ser detectable.
#2 Si tienes un móvil con una aceleradora gráfica de 1000 euros para que te funcione, no creo ya que sea un móvil, con los disipadores, las baterías, los ventiladores.
#31 Es de suponer que tambien puede aprender a hacer una copia analogica convincente. En el futuro proximo habra camaras que firmaran sus "negativos" para que se certifique que no han sido modificados.
Serán todas, o solo la que se usen para cosas forenses. Si no esta generalizado que sirvan de prueba certificada puede ser un problema en denuncia ciudadana.
Quien certificará el sistema? Todo el sistema de la lente a a la memoria deberia se accesible para saber si es hackeable.
#36 Yo no lo veo tan evidente.
La realidad es analógica. La impresión de la luz en un soporte fotosensible es físicamente concreta. Toda digitalización es una codificación, no una manifestación concreta de una realidad física.
Del mismo modo que dices que se aprenderá a hacer una copia analógica "convincente" se puede aprender a detectar cuando una impresión es física y cuando es una codificación digital.
Me parece mucho más sencillo diseñar sistemas que revienten firmas que diseñar sistemas que simule de forma indescifrable la realidad física concreta.
En última instancias, se puede recurrir a sistemas híbridos: analógicos y firmados. La perfección no existe, pero los requisitos para falsificar convincentemente documentos analógicos y firmados quedan muy, muy lejos de la mayoría de la población.
En última instancia, un papel en un sótano del kremlin protegido por tíos armados hasta los dientes de dos por dos es más seguro que un documento en tu ordenador cifrado con aes256
Desconozco si con las videollamadas y la imagen de la cámara hacen lo mismo.
Así a boto pronto lo que se me ocurre es utilizarlo de forma masiva para detectar perfiles falsos/duplicados en las redes sociales.
Se podría unificar con los resultados de otros algoritmos para sacar datos más completos sobre el comportamiento social
#0 gracias por el envío
Falta que imite la voz también
Los que crearon las primera GAN tienen cierto temor de las consecuencias que pueden tener.
En xataca tienen bastante articulos
www.xataka.com/inteligencia-artificial/conceptos-inteligencia-artifici
Muy interesante y preocupante....
#15 #16 eso es cuestion de tiempo. Hemos vivido en el breve periodo de tiempo en el que fiarnos de que algo fotografiado o registrado es real y no inventado. Antes no existian los medios de registros y apartir de ahora se podran generar convincentemente.
A las conferencias deben ir los comerciales, así aprenden lo que deben vender.
En realidad los comerciales no tienen NPI de lo que venden.
Lo analógico todavía mantiene la carga de la prueba. Y si hacemos una copia de digital a analógico, me temo que siempre podrá ser detectable.
Serán todas, o solo la que se usen para cosas forenses. Si no esta generalizado que sirvan de prueba certificada puede ser un problema en denuncia ciudadana.
Quien certificará el sistema? Todo el sistema de la lente a a la memoria deberia se accesible para saber si es hackeable.
La realidad es analógica. La impresión de la luz en un soporte fotosensible es físicamente concreta. Toda digitalización es una codificación, no una manifestación concreta de una realidad física.
Del mismo modo que dices que se aprenderá a hacer una copia analógica "convincente" se puede aprender a detectar cuando una impresión es física y cuando es una codificación digital.
Me parece mucho más sencillo diseñar sistemas que revienten firmas que diseñar sistemas que simule de forma indescifrable la realidad física concreta.
En última instancias, se puede recurrir a sistemas híbridos: analógicos y firmados. La perfección no existe, pero los requisitos para falsificar convincentemente documentos analógicos y firmados quedan muy, muy lejos de la mayoría de la población.
En última instancia, un papel en un sótano del kremlin protegido por tíos armados hasta los dientes de dos por dos es más seguro que un documento en tu ordenador cifrado con aes256