El paper publicado por Facebook Research describe el uso de redes neuronales para introducir una imagen a muy baja resolución y reconstruirla con hasta dieciséis veces más píxeles, generando de nuevo los detalles perdidos mediante una inteligencia artificial entrenada con imágenes nativas a alta resolución. Dicho de forma muy simplificada, el ordenador o visor autónomo renderiza en realidad una imagen a baja resolución que después es escalada a alta resolución mediante IA.
|
etiquetas: facebook , supersampling , red neuronal , paper
Por lo que me mosquea que eso se pueda ejecutar en un juego en tiempo real.
La entrada es una imagen en movimiento por lo que no basta con fijarse en un único fotograma si no que la red neuronal puede utilizar varios fotogramas para descifrar el contenido original.
Lo que nosotros vemos como "ruido" que no permite entender las letras es un ruido que solo se produciría de esa forma si en la imagen original aparece BERLIN, si apareciera OSLO el ruido sería distinto.
En este otro vídeo de YouTube se puede ver algo parecido y puede ayudar a comprender el proceso: www.youtube.com/watch?v=eTUmmW4ispA [ENG]
Nota: no he sableado el comentario de EOL, allí también lo escribí yo.