251 meneos
7811 clics
Google e investigadores del MIT muestran un algoritmo que obtiene fotos claras sin reflejos
Cuando se trata de tomar una foto a través de una ventanilla del avión o de un hotel, lo más probable es que haya un montón de reflejos que aparecen en la imagen final que la arruinan. Ahora, sin embargo, Google y los investigadores del MIT han encontrado una manera de tomar estas fotos y eliminarlas de forma automática.
|
comentarios cerrados
No es más que un relleno/ajuste de niveles sobre una máscara alfa creada a partir del objeto/reflejo que molesta. Esto se puede hacer sobre una imagen única (en este caso con relleno inteligente) o con varias imágenes similares superpuestas que aumentan la información disponible al componerlas juntas.
No se si el MIT propone un sistema totalmente automático, pero en Photoshop incluso se puede programar una función para hacerlo con un par de clicks... así que que me expliquen la novedad.
Y no elimina los reflejos de una imagen, en una secuencia de imágenes al mover la camara discierne dos areas de la imagen una más proxima que se mueve más y una lejana que se mueve menos y las recompone independientemente.
Por lo que sirve también para eliminar otro tipo de obstáculos visuales como verjas u otros objetos próximos.
helpx.adobe.com/photoshop/using/combine-images-auto-blend-layers.html
después esto
helpx.adobe.com/photoshop/how-to/remove-objects-fix-flaws.html
y para los reflejos esto (hay más técnicas dependiendo de la imagen a tratar)
smallbusiness.chron.com/reduce-glare-photoshop-53884.html
con esas herramientas en conjunto puedes hacer exactamente lo mismo que el algoritmo del MIT. Finalmente con esto puedes automatizar ciertas partes del proceso (como importar y combinar varias imágenes o ajustar niveles) para hacerlo mucho más rápido:
helpx.adobe.com/photoshop/using/creating-actions.html
#16 Se nota que no sigues los papers del MIT. La gran mayoría son trabajos de fin de carrera de alumnos a los que les presta su firma el profesor/tutor de turno. No digo siempre, pero muchas veces llaman a algo por otro nombre o prometen una "revolución", y todas las revistas se lo tragan porque habla un profesor de renombre en el vídeo. Otra manía que tienen es proponer "aplicaciones" espectaculares pero totalmente potenciales que apelan directamente a los titulares de prensa.
Para determinar, por la diferencia de perspectiva que parte de la información es Foreground (reflejo u oclusión) y Background . Separando ambas imágenes y rellenando el Background con el material que obtiene cambiando la perspectiva (fijaros que busca siempre desplazar horizontal y verticalmente, para obtener el frame completo del Background).
Preparados para ver las imágenes ocultas, de los fotógrafos.!!
@vivayo tu eres de los que ponen en el CV que saben photoshop, verdad?
1. El primer tutorial es un auto stich, normalmente usado para Gigaphotos y pano.... con eso conseguiras una imáge en grande pero no eliminar/detectar las oclusiones
2. El segundo tutorial es de Content-aware para recuperar patrones, cielos, cesped etc...
3. Y en la tercera es para eliminar "glare" brillos, necesitas imagenes en RAW para recuperar la información.
Se nota que no lees los papers del Siggraph...
#cuñao'
Edit
Se para que es el filtro polarizado y para que se usa. Pero estamos hablando, después de la impresión.
#32 el filtro polarizado también vale para cámaras digitales
"un algoritmo que crea patrones"... No sé a qué te refieres con patrones, pero Content-Aware básicamente busca seams (cadenas de pixels conectados) de mínima energía (que aporten poca información en su entorno, digamos) y los replica/elimina. Vamos, eso es lo que hacía el paper original, igual a Photohop le han metido algo que desconozco.
En cuanto a moverse para obtener el frame de fondo completo, precisamente algo que me ha llamado la atención es que no lo hace siempre. O eso me parece. Por ejemplo, en las imagenes de youtu.be/xoyNiatRIh4?t=193 hay zonas que en todas las imágenes están bajo el reflejo. Y aún así luego separa bien Imagino que por la minimización que usan tras la proyección de los frames. Es bastante impresionante, la verdad.
El SIGGRAPH de este año viene MUY MUY bien en lo que respecta a papers (por este y por otros, lo digo)
Si creo que tienes razon, tambien aplica algun tipo de reconstrucción en el reflejo, basado en el desplazamiento de los pixels.
Supongo que es una adaptación de los algoritmos que usan los programas con Nuke (The Foundry), Boujou, para tracking automático de la imagen. Algo que iniciaron los de RevisionFX y otros.
YES! www.youtube.com/watch?v=XrYkEhs2FdA SIGGRAPH preview... Aunque estoy un poco frito de simuladores de liquidos...