Tecnología, Internet y juegos
127 meneos
3769 clics
Mira cómo el aprendizaje automático puede mejorar las imágenes con poca luz

Mira cómo el aprendizaje automático puede mejorar las imágenes con poca luz  

En la Conferencia de este año sobre Visión por Computadora y Reconocimiento de Patrones, el investigador Chen Chen presentó un proyecto genial que mejora enormemente la calidad de las imágenes capturadas en condiciones de poca luz. Fuente: web.engr.illinois.edu/~cchen156/SID.html

| etiquetas: aprendizaje , automático , imágenes , poca , luz , machine , learning
73 54 0 K 244
73 54 0 K 244
  1. El vídeo "aprendiendo a ver en la oscuridad" es asombroso. o_o o_o o_o
  2. Impresionante...
  3. Relacionada (que NO duplicada, ojo): www.meneame.net/story/redes-neuronales-aprenden-ver-oscuridad
    #1: Aunque también degrada un poco, por ejemplo, en el tobogán desaparecen los cables de alta tensión o algunos colores rojos se los come, quedando muy atenuados.
  4. Aplicado en tiempo real, a camaras y moviles, se forran
  5. #4 tenemos que ver como funciona por que me da que todas las fotos van a salir como las de las chonis de Instagram. Con tanto facetune que ni se ve la nariz. Ten en cuenta que esto inventa, y nunca va a poder inventar detalles.

    Para cosas como las que se ven en el video (colores planos) puede quedar guay, pero una cara real (no de plastico, con sus cositas) puede salirte como la de velmez.
  6. #5 "nunca va a poder inventar detalles"
    jajaja... :-)
    Realmente sí que puede inventarlos, con el suficiente entrenamiento un determinado desenfoque, con ruido, puede saberse que es una peca en la cara. Aún queda mucho por ver en IA en los próximos meses, que no años.
  7. #3 Será distintas fuentes, pero es más que "duplicada", no se si ha salido cuatro o cinco veces en las noticias nuevas.
  8. #6 Eres consciente de que el entrenamiento se tiene que hacer para cada foto prácticamente? No hay tiempo real, por tanto no puede inventar detalles en una foto por la noche qué haces a una amiga, por ejemplo
  9. #8 ¿Y qué es exactamente eso que haces a una amiga?
  10. #8 Donde dice que no?
  11. #8 Estás equivocado. Tienes el paper y el código fuente, deberías probarlos.

    El entreno se hace con 5094 fotos que tienen dos versiones: una de corta exposición y otra de larga. Una vez entrenado obtienes el modelo que te sirve para aplicar a cualquier foto.

    Y si pruebas el código, a él en procesar una foto le tarda 0.66 segundos de máxima, a mí con GPU en nube en un EC2 el tiempo máximo que he tenido es de 0.38 segundos, y no es lo mejor del mundo. Seguramente en una máquina buena con GPUs o Nervana puedas lograr tiempo real.
  12. #8 Eres consciente de que el entrenamiento se tiene que hacer para cada foto prácticamente? No hay tiempo real, por tanto no puede inventar detalles en una foto por la noche qué haces a una amiga, por ejemplo

    Ein? El entrenamiento, por definición, se hace sobre un conjunto aparte de fotos, la foto objetivo no participa en absoluto en el proceso
  13. En 3D acaban de sacar un limpiador de ruido basado en IA que, con apenas un par de pases (para una escena en 3D se necesitan unas 150 pases y cada uno puede durar bastante tiempo), ya sale una imagen limpia, falta detalle pero es impresionante
  14. #7 ¿enlaces?
  15. El vídeo es increíble
  16. #10 La lógica lo dice
  17. #11 Como va a valer para cualquier foto, valiente chorrada. Para rostros humanos no puedes fabricar un modelo a partir de x fotos, en todo caso aproximaciones
  18. #16 La lógica tuya y personal?
  19. #9 No quiero decepcionarte...
  20. #18 Supongo que tú usas la lógica de otros y no la tuya para deducir no?
  21. #20 Intento que mi lógica se base en datos. La noticia no dice nada de lo que dices
  22. #17 que te leas el paper y pruebes el código en lugar de soltar tonterías aleatorias.
  23. #22 No me sale de los cojones
  24. #23 Muy española tu conducta, hablar de lo que no sabes, y sin leer siquiera la fuente xD
    Tú tienes tanta idea de Computer Vision como yo de punto de cruz.
  25. #24 No niño, la actitud española es creerse todo lo que te cuentan si la fuente es extranjera aunque no tenga sentido. Si el artículo fuera de la universidad de Albacete te estarías descojonado
  26. #25 Hola? Vamos a ver punto número 1: me dedico a Computer Vision de manera profesional. Es lo que me da de comer. Así que dedico un mínimo de 8 horitas al día a este campo, desde hace años. Así que creo que algo de idea tengo. Por otro lado, te estoy diciendo que te leas el paper, mi conclusión actual es que tienes el nivel intelectual de una ameba y no lo lees porque sabes perfectamente que no lo entenderías. Has elegido tú meterte en el berenjenal de comentar sin tener ni idea y ahora te revuelves porque sabes que no tienes ni idea.

    Así que, ale, a cascarla. Me tocáis los cojones los gilipollas así. Sobremanera. Harto de personas sin puta idea que se rebozan en su puñetera ignorancia y encima pretenden quedar por encima de los que sí saben. ¿Quieres reportarme? Repórtame, tampoco es que entre mucho. Pero me quedo a gusto diciéndote que eres un imbécil y un falto de estudios, y que si quieres hablar de un puto tema al menos aprende para tener una puta opinión en lugar de entrar soltando putas mierdas de gilipollas.

    Ale, baneadme, que total me he quedado a gusto con este subnormal.
  27. #26 Huy lo que me ha dicho...
    Hay que ser subnormal para leerse el paper y pasar por alto esto: The SID dataset is limited in that it does not contain humans and dynamic
    objects

    Vaya forma de hacer el ridículo...
comentarios cerrados

menéame