edición general
65 meneos
4440 clics
Este envío tiene varios votos negativos. Asegúrate antes de menear

Este algoritmo puede eliminar el agua de las fotos submarinas, y los resultados son increíbles Fotografía - eng

Un ingeniero ha desarrollado un programa de computadora que puede, en sus palabras, "eliminar el agua" de una fotografía submarina. El resultado es una imagen "físicamente precisa" con toda la vitalidad, saturación y color de una foto de paisaje normal.

| etiquetas: fotografía
  1. Eliminar el agua dice! :wall: en todo caso lo que hace es compensar la absorción de ciertas longitudes de onda (colores) por parte del agua y intentar mostrar los colores como en teoría se ven fuera del agua... cosa que hace bastante mal.
  2. #1 Yo las imágenes las he visto perfectas, me dejas ver tu algoritmo a ver que tal lo hace?
  3. Paqué narices quieres quitar el agua si estás haciendo fotografía submarina... valiente chorrada.
  4. #1 No no, elimina el agua. He hecho una prueba, mira.  media
  5. #4 Hay objeto directo, elimina el agua de la foto.
  6. #3 La tecnología muchas veces si no le das uso es una chorrada, pero si le das uso es casi mágica.
  7. #6 Videojuegos 8-D
  8. #7 Exacto, para mí es una chorrada, pero es el motor de la vida de mi hermano.
  9. #3 Quizás se puede hacer recreación virtual de algún animal submarino sin tener que sacarlo del agua y perjudicar su salud.

    O por ejemplo, las fotos en Venus, o cualquier otro planeta con una atmósfera diferente.
  10. #2 Qué hartito estoy de esta falacia...

    El hecho de que yo diga que algo es una mierda (no me refiero a este algoritmo en concreto) no implica que yo tenga que disponer de algo mejor.

    O dicho de otra forma, no es necesario tener algo mejor propio para poder criticar.

    Se llama criterio propio.

    Si no opinas así, supongo que cuando vas a ver una película y te parece mala, te callas salvo que te apellides Cohen o Berlanga. Y si vas a un restaurante y no te gustan las croquetas, no dices ni mú a tus amigos salvo que seas Chicote o Ramsey. Y si un político se marca una buena cagada, no lo criticas salvo que seas Churchill. Etc.
  11. Mi cámara ya tiene ese filtro. Muy novedoso no es.
  12. Un preset de lightroom
  13. #3 lo dicen en el video, los biologos estudian el fondo marino para ver el estado de salud de los corales y otras plantas, donde el color es determinante del estado, pero no pueden hacerlo correctamente debido a las distorsiones producidas por el agua, este algoritmo las corrige con un grado de precision suficiente.

    pero eh! que ser cínico con el trabajo de otros mola mas!
  14. #1 No es tan sencillo por varios motivos: para empezar, la atenuación varía con la distancia, por lo que a los objetos cercanos le tienes que aplicar valores diferentes que a los lejanos. Por otro lado, el sensor codifica todo el espectro como combinaciones de tres colores primarios, por lo que tienes que extrapolar a partir de dichos valores cual era la longitud de onda o longitudes de onda que incidían, para contrarrestarlo. Ejemplo de esto último: si un pixel tiene un color amarillo, puede ser porque estaba recibiendo una longitud de onda correspondiente al color amarillo, o sea, 550nm, o bien puede ser que esté recibiendo dos longitudes de onda, verde (500nm) y roja (600nm). Y eso sólo con dos longitudes de onda... Además, hay efectos de dispersión (scattering) mucho más acusados que en la atmósfera. Supuestamente este algoritmo tiene en cuenta esta peculiaridad.
  15. #1 Comorl? A ver, que yo he visto la primera foto de la noticia y he pensado "se inventa los colores!". Luego he visto la segunda, con el pantone al lado y... ostia! que lo hace bien!  media
  16. Ejpertos! Ejpertos everywhere!
  17. #3 Porque o tienes un filtro rojo, que no te resuelve del todo el problema porque dependiendo de la profundidad los tonos se van más al azul, o te metes con un focazo, o todas las fotos se te saturan de azul y no ves los colores reales de los peces y corales.
    Con esto, te evitas equipo (caro y pesado).
    Me encanta la idea. Quiero probarlo YA.
  18. #3 ¿Para tener por ejemplo los colores reales de algo? Cara a investigación le veo usos.
  19. #20 Si hubieran seguido trasteando con la eolípila igual habríamos tenido una revolución industrial varios cientos o más de mil años antes.
  20. #3 Para ver los verdaderos colores de las cosas dentro del mar sin el agua tal vez??!!

    Menuda chorrada esa de poder ver arrecifes, peces y toda la biodiversidad marina con sus colores naturales... :wall:
  21. #1 No hace solo eso, si lees el artículo original... no seamos cuñaos
  22. #16 En principio el planteamiento es simple. Tiene como referencia una paleta de colores, de los cuales conoce el código. Una vez dentro del agua, estos colores de la paleta obviamente se van a distorsionar también al igual que el resto de elementos. El algoritmo lo que hace "símplemente" es ajustar los colores de la imagen completa tomando como referencia los colores que tendría que tener la paleta si estuviera fuera del agua, de forma que el resultado de la imagen será el esperado fuera del agua si al final consigue que los códigos de colores de la paleta dentro del agua vuelvan a ser los esperados. Por eso en principio no influye demasiado que los objetos estén más lejos o más cerca.
  23. #13 lol. ni idea de lo que hablas.
  24. #19 a ver cuando sacan un preset para el photoshop o similares :-)
  25. #3 Pues mira para empezar se me ocurre que para determinar preliminarmente el estado general de arrecifes de coral. Por ejemplo
  26. #2 Acaso el del meneo lo has hecho tú?
  27. #26 ¿Doctor Who quizás? no la he visto todavía :-(
  28. Muy interesante, y como bien lo explican en el mismo video, muy útil para investigación científica e incluso para uso recreacional cuando se quieren ver los verdaderos colores de los arrecifes y vida marina.
  29. #15 Sólo está intentando justificar su negativo para poder ganarse el karmita de tumbar la noticia, seguro ni se ha visto el video.
  30. #17 #2 lo que tu llamas pantone es un "tarjeta de balance" usando eso corrige el efecto del agua hasta el mas tonto... es mas viejo que el hambre el usar un chisme de esos en fotografia para luego corregir la distorsion delos colores producida por las luces ambientes.
  31. #25 Ojo: esas imágenes con la paleta las usa sólo para entrenar el sistema; en base a esas fotos, aprende y es capaz de hacerlo ya sin paleta, sin importar posición y demás. Lo explica el paper.
  32. #25 Y añado: tiene en cuenta efectos globales como la dispersión, por lo que es mucho más complejo que coger cada pixel de la paleta, ver qué hay que hacer para corregirlo, y aplicar eso en cada pixel de la imagen de manera independiente.
  33. #24 Lo que desde luego no hace es quitar el agua, que a veces las noticias explican las cosas como si tuviéramos 3 añitos.
  34. #10 De los comentarios:
    "It probably takes into account the varying color cast across the frame. The further away your subject is, the more strongly it'll be miscolored.
    If you simply white balance to correct for one part of the image, anything nearer or further away might still be wrongly colored."
    Al que la creadora del SW le contesta
    "You got it 100% right."
  35. #37 Es cierto, tendría que haber leido la noticia entera, no vi el enlace al paper. Lo acabo de leer por encima y sí, tiene bastante miga el asunto. Te pido disculpas.
    Me queda una duda, ¿sería capaz el algoritmo de proporcionar el mismo resultado dadas diferentes fotos realizadas con diferentes cámaras y objetivos?
  36. #42 La verdad es que no lo se.
  37. #3 Primero es el invento, luego las aplicaciones que se le encuentren. Cuando lo mejoeren puede quedar muy chulo.
comentarios cerrados

menéame