146 meneos
3518 clics
Por qué Neural Radiance Fields es el futuro del vídeo [ENG]
16:49. Esto no es un metraje de video, es una renderización, pero se ve bastante fotorrealista, ¿verdad? Lograr este nivel de calidad en CGI normalmente requeriría una gran cantidad de tiempo y esfuerzo. Pero, ¿y si te dijera que hice esto fácilmente en cuestión de minutos gracias a una nueva tecnología llamada NeRF? Estoy hablando de Neural Radiance Fields y en este vídeo te voy a contar cómo va a cambiar la manera de hacer películas para siempre. Rel: menea.me/1y78g
|
comentarios cerrados
youtu.be/-1Dz9Izq8Vs
#0 buen meneo
UE es un motor muy modular que funciona con una serie de assets definidos de una serie de formas estándar y que usa una serie de técnicas para generar unos resultados. Aunque tiene un motor de render diferente y curioso a otras aproximaciones que hay en el mercado, básicamente trabaja con polígonos sombreados; incluso el raytracing funciona sobre polígonos. Tú le das un entorno polígonal y una serie de luces y efectos y él recrea el entorno 3D tratando que la iluminación sea lo más realista posible.
Esto es más parecido a lo que lograrías usando una kinect, no sería tanto una tecnología de renderizado poligonal sino que funcionaría sobre voxels (pixels sombreados en el espacio) captando los reflejos directos e indirectos de las luces sobre el entorno y recreando con ellos una escena 3D. Le estarías dando directamente una escena tridimensional iluminada y simplemente estaría integrando cosas en esa escena tridimensional, de manera muy realista porque imitaría cómo afectan los reflejos de los rayos de luz sobre esas cosas que no son parte original de la escena.
#4 ¿Qué limitaciones le veo? así a bote pronto, que probablemente no puedas cambiar dinámicamente la iluminación de algo de manera sencilla, por ejemplo, para hacer de noche o para imitar el encender o apagar una nueva luz (la escena es la que es, las luces son las que son) y que la escena no sería interactiva (partes de una escena fija, meter cosas en movimiento como parte de la escena -ojo, no como parte de los objetos que luego integres en la escena, tal y como se puede ver en el vídeo- no parece factible o fácilmente realizable ahora mismo), lo cual está muy bien para ciertas cosas, pero no tanto para videojuegos (donde la iluminación es la que se genera, independientemente de la escena, que es todo lo cambiante y dinámica que quieras). Otro fallo parece ser a la hora de reconstruír o integrar cosas dentro de la escena, en el video se ve que a veces lo integrado no está del todo definido o tiene fallos, alguna iluminación no es del todo consistente, etc.
Creo que nos vamos a sorprender mucho. Estas propuestas rompen por completo con las formas de trabajar actual. Creo que las complementan y hacen fáciles cosas que eran complicadas.
Después llegaron gente de humanidades y coparon el diálogo (que es su tendencia natural, todo sea dicho, y para lo que están preparados)
Todavía dudo que sean mayoría, pero desde luego son los que llevan la voz cantante (cáptese la ironía)
Sería el equivalente a la fotogrametría de una forma fluida.
La diferencia en este caso es que al usar datos de radiosidad, la escena que genera es muchísimo más real y puedes integrar objetos de manera coherente con la radiosidad de la escena, es el uso de un campo de radiosidad lo que otorga a esta técnica su realismo visual. Ya no es un objeto 3D texturizado, es una escena completa fotorealista. ¿Es mejor la ia que te genera un objeto 3d mediante fotos/videos o la que genera un escenario con fotos/videos y datos de radiosidad? en esencia son la misma IA, hace lo mismo... lo que cambia son los datos de los que parte.
Unir pegotones no es algo que se haga ahora y sea posible sólo gracias a la IA... esto se hacía hace 10 años con un kinect y un algoritmo de integración tradicional (con las limitaciones de resolución y problemas de luz que tenía y aún así podían conseguirse resultados resultones):
youtu.be/VHmHkalWT6A
La diferencia es que hoy en día puedes hacerlo con una cámara cualquiera porque la IA es un algoritmo más adaptable al "ruído" insertado al tratar con múltiples imágenes y da mejores resultados al interpretar los datos más correctamente y ser capaz de generar un entorno más coherente con esos datos.
La notica original es "Muere una mujer y una niña en lo que parece un suicidio ampliado" y se envía como "Una mujer mata a su hija y se suicida". ¿Sería microblogging?.
cc #27
Quiero decir que si lo pones como ejemplo, en contra de mi argumento, de que la gente de humanidades también envia noticias de este tipo.
Generalizar no sirve de mucho.
Precisamente lo que digo es que llevais la voz cantante.
Creo que has hecho una lectura victimista y has llegado a esas conclusiones, sinceramente.
Lo que quería decir es que las noticias que llegan a portada son de ese tipo, como hecho que es demostrable, frente a hace una década, que había una situación diferente.
Y, cosa por otra parte normal, que estais más preparados para manejar los discursos. Cosa creo también objetiva.