edición general
490 meneos
10507 clics
¿El fin del Chroma Key?

¿El fin del Chroma Key?  

La tecnología usada en “The Mandalorian” amenaza con cambiar la industria cinematográfica para siempre, pero parece que no es oro todo lo que reluce.

| etiquetas: mandalorian , chroma key , star wars , unreal engine
293 197 2 K 539 cultura
293 197 2 K 539 cultura
Comentarios destacados:              
#2 El video está muy currado y es bastante más interesante de lo que parece por el título.
  1. Tenia entendido que lo que más usaban era Stagecraft.
  2. El video está muy currado y es bastante más interesante de lo que parece por el título.
  3. #2 Lo está y le he dado al positivo. Tiene muchas incisiones por la enorma complejidad que hay que explicar y que se entienda bien. Espero que tenga más subs el canal, sobre todo para que envíe más gente que #0 y no acabe en la papelera del spam
  4. ¿amenaza con cambiar? como si no fuera un avance :-/
  5. #0 Mola este envío, me encantan los tejemanejes de la magia del cine.
  6. A partir de 9:20 se ven las debilidades de esta tecnología.

    La primera parte es un poco lo que se sabía de meneos cómo este: www.meneame.net/story/the-mandalorian-asi-funciona-stagecraft-revoluci

    De todas maneras algunas de las debilidades son cosas técnicas que se solventaran con el tiempo, cómo el lag y la capacidad de renderizado en tiempo real.

    Lo interesante es cómo explica que el propio formato de la serie The mandalorian hace que no sean para tanto esas debilidades, pero en otras series no será posible todavía aprovechar esta técnica.
  7. Pantalla de retroproyección, más antiguo que... Sí, sí, ya sé... mejoradas gracias a todos los avances del cgi, sí, pero vamos... es una "pantalla de retro" de toda la vida. :-P
  8. Es curioso que los rodajes de peliculas cada vez se parecen mas a videojuegos (con camera culling y todo) y a la vez los desarrollos de videojuegos cada vez se parecen mas a peliculas :-D

    Por cierto, porque se tiene que renderizar la pantalla en tiempo real, no pueden simplemente grabar un video prerenderizado y reproducirlo?
  9. #7 Pero interactiva y que puede ser en 360⁰

    El concepto no es nuevo, otra cosa es si la tecnología permitía un salto cualitativo. Y parece que lo han dado, aunque falta un poco para su madurez técnica, y otro tanto para que se abarate y llegue a más producciones.
  10. #9 No es crítica, como ya he dicho es el "salto evolutivo" de las pantallas de retro... Antes podías tener 180º como mucho, cierto. Y las pantallas interactúan con los personajes a nivel de luz, zombras, etc... porque emiten luz de ahí la genialidad del uso combinado con las técnicas más modernas. Pero me parece que quieren reinventar lo ya inventado. Sí, sí, sí... el cgi topoderoso y las herramientas de edición de imagen actuales, sí. Pero fíjate que han vuelto a lentes anamórficas (no es crítica, me encantan) para poder reinventar de nuevo el "cine clásico" (comillas) y poder usar más rango de imagen. El muaré sí que me sorprende que no hayan podido con él... ¿no se puede sincronizar el parpadeo con el de la cámara? Hmmm... curioso. Y por último, abaratar no creo que sea la palabra, esto debe, sospecho, ser carísimo. :-)
  11. #8 Entiendo que esto permite mucha flexibilidad y hacer cambios de última hora.

    Supongo que Disney les dió pasta suficiente para permitirse ser ambiciosos.

    A la vez que es algo que quizás la competencia de efectos especiales no puede emular tan fácilmente, cómo si podría un vídeo prerenderizado, y meterlo en la serie puede diferenciarles en el mercado y pulir el producto.
  12. #8 En algún ejemplo parecía que hacían eso, pero supongo que lo hacen en tiempo real para que la perspectiva del fondo siga a los actores y la cámara, y no al revés teniendo que decir a los actores todo el rato por qué ruta exacta tienen que ir
  13. Pero esto no es grabar con un telon de fondo con un paisaje? Como en el teatro o las pelis viejas de los 50
  14. #10 Bueno, quien sabe si lo del muaré sea cuestión de meses. Y cómo buen señalas tiene pinta de ser algo tan técnico que quizás encontrarán un truco.

    Lo de abaratar me refiero en términos de producciones de Hollywood. Vamos, que seguirá costando un pastón pero más producciones se lo podrán permitir.
  15. #8 Cosa bastante deplorable esa manía que tienen los estudios de videojuegos de contratar gente del cine, y así te encuentras que el 90% del juego son escenas de video, pero yo cuando arranco un videojuego es para jugar no para ver peliculas.
  16. #8 Para hacerlo de esa forma la cámara ha de estar robotizada siguiendo de manera sincronizada a la cámara con la que se creó el vídeo. Es decir, has de renderizar antes, grabar un vídeo y luego reproducirlo y que la cámara lo siga. Aqui solo se renderiza en tiempo real, y puedes mover la cámara libremente. Más simple.
  17. #14 Ah, bueno, ya, claro, para megaproducciones de Hollywood, sí, claro, esto es relativamente poco dinero, claro. Lo que no sé es si tanta tecnología está puesta al servicio de la historia... o la historia está puesta al servicio de la tecnología... Ojalá, ojalá lleguen a encontrarse en un punto en el futuro. Y sí, el cine, desde Méliès es trampantojo, claro. ;)
  18. #6 las debilidades son en general falta de madurez de la tecnología. En una década cualquier PC de gama alta tendrá potencia para renderizar en tiempo real a esa resolución.
  19. #13 una pantalla de fondo no te deja luces y sombras de lo que hay alrededor como estas. Sólo el ahorro en meter CGI en todos los planos de una película como se hace hoy sale muy caro. Y esto aplicado en series ya verás... AQUÍ youtu.be/FOxUAMuBtMM?t=507 (ábrelo en nueva ventana para que se te abra en el segundo exacto)
  20. #18 Pero entonces lo notaremos y querremos más resolución. No entiendo por qué pasan estas cosas, pero la primera vez que vimos "Parque Jurásico" pensamos que aquellos dinosaurios ya eran perfectos, que la técnica no tendría que avanzar más. Ahora cantan bastante. Que supongo que es lo que me pasaba a mí con la famosa escena de los esqueletos de Jason y los argonautas, que a mí me cantaba mucho y a mi abuelo le parecería perfecta.
  21. #20 es un tema de espectativas. Los fallos y limitaciones de las tecnologías antiguas se te hacen evidentes al familiarizarte con ellas. Al ver algo nuevo buscas los mismos patrones y, al no verlos, no solo captas la mejora, sino que aún no estás familiarizado lo suficiente para ver los nuevos fallos.
    En realidades lo mismo que provoca que gente de otras etnias nos parezcan todos iguales
  22. El titular es erróneo. La ventaja de la tecnología utilizada en Mandalorian no es acabar con el chroma key sino iluminar de forma realista objetos reales incluidas las reflexiones de manera que esté bien integrado con un entorno digital. Esas mismas pantallas también sirven para crear un fondo verde o azul que sirve para realizar keying en caso de ser necesario.
  23. #20
    Tampoco cantan tanto para ser del año 92?
    Lo que canta son las segundas partes que le vinieron, para enterrarlas todas con el ET de atari, incluidas las actuales.
  24. #10 Es que el moiré no tiene que ver con el parpadeo/tasa de fotogramas, sino con la estructura reticular de píxeles de las pantallas y de los sensores digitales.
  25. #20 los dinosaurios de jurasic park no cantan a dia de hoy pero creo que se hicieron con 20 estaciones silicon graphics en offline con dias de rendering, aqui estan hablando de tiempo real... Comparar semillas con sandias basicamente.
  26. #8 Claro, pero la cosa está en que cuando el operador de cámara mueve la cámara, el entorno responde al movimiento en tiempo real para mantener la misma perspectiva con una cámara virtual.
    La otra ventaja está en poder realizar cambios en los entornos digitales en tiempo real, como por ejemplo "esa montaña del fondo me mira raro, quitala de ahí".
    De todas maneras los motores de render en tiempo real actuales y con las gráficas con raytracing tienen una calidad prácticamente igual al prerenderizado.
  27. Me imagino la oferta, en españa:
    Importante empresa lider en el sector audiovisual busca a un programador unreal engine .
    Requsitos minimos:
    5 años de experiencia en unreal engine a tiempo real.
    Resoluciones 8k, 16k y 24k.
    Requisitos recomendados:
    Experiencia en solucionar problemas de lag y redenrizado.

    Salario de 14k-21k
    contrato fin de obra.
    Plan de carrera, horario flexible de 8 a 2 y de 5 a 7.
  28. #22 Lo curioso es que por lo que se ve en el video la técnica genera fallos visuales más gordos en el fondo que el problema original de la luz que pretendían arreglar.
    Así que ahora los reflejos en los actores son casi perfectos pero a cambio tenemos unos fallos garrafales en las imágenes de fondo, no parece esto un poco raro ? Será que el sistema nuevo les ahorra mucho dinero sino no lo entiendo.
  29. #20 Es que... aquellos dinos aun siguen siendo "perfectos", no se cuanto tiempo hace que no la has visto, pero la escena del Rex es bestial, y estamos hablando del año 93...1993, no 2003.
  30. #24 Ehm... hace años, con las cámaras de formato profesional de tv "antiguas" que grababan en betacam también existía el moiré sobre todo en tejidos tipo "pata de gallo" y equivalentes en presentadores/as... Y creo recordar que el ingeniero de una productora en la que estuve me explicó en su día que tenía que ver con un problema de óptica y de electrónica, que se creaba un patrón de interferencia, o algo así recuerdo. No sé si aquellas tocho-cámaras de estudio de aquella época tenían sensores digitales... Lo desconozco.
  31. #23 Lo comentaba, para ese año los FX son un Antes y un despues.
  32. #13 Básicamente sí. Pero mejor.
  33. Me ha gustado bastante el video y me ha interesado el canal. Buen aporte #0
  34. #13 Has visto el resultado en ambos casos. ¿Que te parece mejor? Supongo que no has visto este video y necesitas una explicación muy muy simple pero creo que lo mejor es verlo hasta el final.
  35. #28 esos errores que mencionas son sacados del make in off fuera del enfoque real de la camara que esta grabando, lo muestra para que se vea el paso del renderizado en tiempo real cuando mueven la camara.
  36. Increíble. Lo he visto enterito y me he suscrito al canal. Interesante, didáctico y hecho con muy buen gusto. Así, si.
  37. #28 Ojo! esos fallos son en las imágenes de making of. Las que recoge la cámara principal no tienen nada raro. Quizás esto lo he explicado regular.
  38. #26 "De todas maneras los motores de render en tiempo real actuales y con las gráficas con raytracing tienen una calidad prácticamente igual al prerenderizado"

    No, no tienes la misma calidad ni de lejos. Que las gráficas de ahora sean una bestias vale, pero una imagen pre renderizada siempre va a tener mas calidad que una en tiempo real. En una imagen a tiempo real solo dispones de 33ms para generar la imagen, que con una nvidia rtx solo te deja 1,7TFLOPS de calculo. En una imagen prerenderizada tienes "todo el tiempo del mundo" así que puedes meter todos los teraflops que quieras. De hecho es ahora cuando se empieza a ver el raytracing, pero imágenes de raytracing ya se hacían desde hace décadas (Povray, un famoso programa para hacerlas, saco su primera version en 1991)
  39. #20 Estoy contigo, cuantas veces no has visto alguna peli con un Helicóptero renderizado por un pentium III? la de puestos de trabajo destinados a gente con talento que se estan fulminando con estas mierdas. Tenemos que aprender a consumir producto de calidad, cuando compras algo que vale 10 por 1 estas jodiendo a todos.
  40. #30 En vídeo analógico el moiré venía producido entre otras cosas principalmente por el entrelazado.
  41. #40 Ya, por los campos de medio frame... ¿no? Creo recordar algo de mis millones de horas en salas de edición. ¿Es eso?
  42. #18 #27 Lo has clavao. Yo creo que buscarán mas un autónomo, que coño de contrato ni que leches :-D
  43. #38 Totalmente de acuerdo contigo en cuanto a que la imagen prerenderizada no tiene rival. Pero en cuanto a tiempos y presupuesto, creo que el tiempo real se lo lleva de calle. saludos
  44. #41 Eso es.
  45. #3 Me he suscrito, vídeo muy currado y didáctico :clap:
  46. #6 #18 posiblemente una 3090 se acerque ya a las necesidades de renderizado en tiempo real a 4k e incluso 8k.
  47. #20 dudo que cuando llegen a renderizar 8k en tiempo real en 20, 30, 40 años la gente pueda decir que lo notan, al menos claro, que se cambien los ojos por ojos bionicos.
  48. #27 te ha faltado poner xxxxx consulting...
  49. #45 yo ya lo hice la vez anterior. Le he puesto campanita y todo eso :roll:
  50. El Señor de los Anillos sigue siendo una joya cinematográfica, y eso que ya tiene años. A veces ni notas el croma.
  51. #46 El vídeo habla de 11 ordenadores para hacer 12k en la pantalla principal y 4K en el techo (Alrededor del minuto 14).

    De todas maneras ¿No hay nada más potente que la 3090? Estamos hablando de una producción hiperprofesional donde tienen presupuestos monstruosos.
  52. Un canal de Youtube en castellano con y de calidad. Pocos son, a ver si van saliendo más.
  53. #51 claro, puedes tener dos 3090 en paralelo.
    Hablando en serio, no hay nada más potente porque es el límite de la tecnología ahora mismo. Es como montar una supercomputadora, lo único que puedes hacer es añadir más CPUs o GPUs, y no son baratas. Pero más caro es crear el software capaz de aprovechar todo ese hardware
  54. #24 #30 El moare se debe a patrones regulares, por ejemplo cuadriculas, el pata de gallo, las medias de rejilla. En pelicula no pasa porque el grano es aleatorio y no sale moare. No se como no hay Sensores, con cuadriculas algo deformadas para eliminar el moare.
    #40 No estoy seguro pero en cualquier imagen de pixeles con patrones regulares se puede dar.
  55. #21 todo bien salvo que me parece difícil creer que por tener una diferencia cultural o lingüística cambie tu aspecto físico (etnia no requiere ser de diferente raza :-))
  56. #7 No.

    La retroproyección clásica era un film proyectado sobre una pantalla plana por detrás de los actores.

    Esto no solo proyecta una imagen. Es un ambiente digital generado en tiempo real, y sincronizado con las cámaras.

    Dada la geometría del espacio virtual, si solo fuera generar el fondo, no se vería bien, ciertas partes saldrían deformadas, etc. El sistema hace tracking de la posición de la cámara, y de los parámetros de la lente, y genera en tiempo real el escenario correcto, dentro del campo de visión de la cámara, para que se vea como es debido. Es decir, que el segmento de pantalla al que apunta la cámara muestra el render correcto, debidamente corregido para que la cámara lo filme de forma que se vea completamente realista.

    Está a años luz de lo que era una triste retroproyección. Es como decir que es lo mismo una cámara a manivela que una cámara digital RED (e incluso, la diferencia es todavía más bestia).

    Así que no, no es ni por asomo una “retro de toda la vida”. :roll:
  57. #38 Tal como dice #26, el sistema les da flexibilidad para rodar los planos y las secuencias que quiera el director, haciendo los cambios necesarios sobre la marcha.
    Además les permite rodar multicámara con total libertad de movimiento.
    Una secuencia pre-renderizada solo se puede rodar con una cámara en la misma posición que se ha renderizado (o sincronizar las cámaras con lo renderizado), sin posibilidades de hacer cambios (tendrías que volver a renderizar todo).
    Es un sistema tremendamente flexible y cómodo, y funciona muy bien en la serie.
  58. #52 pocos hay pero los que hay son muy buenos :-) este lo conocí por el vídeo de los argonautas y me vi todo lo que había subido... Y hace poco descubrí el hrom con el generador Van Der Graaf y lo mismo me he visto medio canal
  59. #2 Yo uso unreal en el curre, y siempre que veo algo así pienso, a ver las fumadas que se cuenta el colega, y no, ha sido super riguroso en todo, muy muy bueno, Solo un apunte, lo de la iluminación no es raytrace, raytrace solo es la forma de calcularlo, para que la luz se comporte de forma real se usa global ilumination, hay muchas técnicas para calcularla, una de ellas el raytrace, lo bueno que tiene el RT es que ahora se puede hacer en tiempo real, y que ademas también te calcula reflejos..
    Cinematography Database en este canal hay un tipo que te explica como hacer todo eso en casa... a ver es caro, pero como mucho será un 0.1% de lo que se gastaron en Mandalorian.
  60. #6 Ten en cuenta que mandalorian se rodó en el 2018, desde entonces unreal ha mejorado mucho, de hecho ya tenemos en nada unreal 5, que se come polígonos como gominolas, ademas de eso tenemos la serie 30 de Nv, que lo mismo..
    He visto vídeos casi sin lag, o de milisegundos, eso sí, no eran de 12.000 pixels.. pero eran sistemas caseros, usando el mando de una Vive para capturar la posición de cámara...
    Yo creo que se va a convertir en un standar, no con la super pantalla esa, eso para las super producciones, pero sí en un formato más barato..
  61. #2 De lo mejor que he visto en mucho tiempo, me alegro de que se suba contenido así no solo a Youtube, si no que se comparta aquí.
  62. #2 he visto varios de sus videos y todos son muy buenos.
  63. #48 es la ostia pero yo diria que el 90% de estas charcuteras las montan comerciales que trabajaron en otras y se llevaron los clientes.
  64. #55 En principio no existen diferentes razas, pero tienes razón, la palabra correcta tampoco sería etnia, sino cline o deme:

    es.wikipedia.org/wiki/Raza_(clasificación_de_los_seres_humanos)

    es.wikipedia.org/wiki/Raza_(clasificación_de_los_seres_humanos)#El_re
  65. #56 He visto el vídeo completo, entiendo cómo generan las imágenes en tiempo real, y entiendo que sincronizando con la cámara ajusta ángulos, campo visual, etc. Lo entiendo. Pero si me permites, he visto retroproyecciones (hace muchos años) bastante impresionantes para los medios que había... Siempre se trata de engañar al ojo (al cerebro) de la mejor manera posible y con la tecnología existente.

    Kubrick, para rodar Barry Lindon y sus muchas escenas con velas, se hizo traer ópticas exclusivas de la NASA, eso realmente es irrelevante e impresionante a la vez, por la magia que consiguió crear a nivel de imagen. Creo que muchas veces (lo digo con respeto) se magnifica la tecnología antes que el resultado a nivel de imagen. Creo humildemente.
  66. #66 Si te fijas he puesto ejemplos de retroproyección que a mí me parecen cojonudos como por ejemplo el ascensor de Aliens. Lo importante es que una serie como Mandalorian hubiese lucido muy distinta de no haber dispuesto de esta tecnología.
  67. #67 Totalmente de acuerdo. No es crítica. He visto el vídeo y su información enterito y he disfrutado de la explicación tan didáctica. No es eso. Y puede que sea yo el que no sepa ver que es un salto brutal, pero si te soy sincero a mí el "tiempo bala" me dejó bastante indiferente, supongo que la edad no perdona. Y ya tengo unas cuantas primaveras. Jajajaja. Y me siguen gustando los efectos "artesanales" de Mr. Ray Harryhausen, me siguen dejando impresionado las elaboradas construcciones de maquetas y su uso... soy, en el fondo, una antigualla a extinguir, lo sé. :-)

    Y si eres el creador de estos vídeos, chapó y muchas gracias por la labor educativa y formativa. ;)
  68. #68 Un gritón de gracias!
  69. #69 Nada, un teragritón de gracias a ti por contar cosas interesantes de este mundo loco ( o loco mundo) del audiovisual. ;)
  70. #38 Viste la última demo técnica de unreal engine 5? Dudo mucho que el espectador medio sepa diferenciar si es tiempo real o render.
    Por otra parte están en auge los motores de render por GPU como redshift, octane... que junto algoritmos de denoise como el de nvidia llegará un momento que el "prerenderizado" sea en tiempo real.
  71. #2 Pero tal cual.

    Desde marzo que me dedico a hacer platós virtuales, para grabaciones y directos. Muchos de los datos que ha soltado son JOYAS para los que se están metiendo en esto, ya que todavía no hay mucha información general acerca de la mayoría de detalles y trucos que se necesitan para lograr utilizar estas técnicas sin volverte loco.

    Bravo por el video y la visibilidad a esta tecnologia. Necesitamos estandarizaciones alrededor de esto ya!!
  72. #59 El tío que lleva ese canal hace cosas bastante interesantes.

    La idea de rodar cinemáticas de videojuego, desde casa, con un operador de camara profesional, --> QUE UTILIZA HERRAMIENTAS DE CÁMARA TRADICIONAL!! (movimientos de cine a los que estamos acostumbrados, tanto con grúas, gadgets varios, o con cámara al hombro) con un director de cine que ve lo que ves tú y te puede guiar hacia lo que quiere.... es una flipada.

    Previamente hemos tenido en su mayoría programadores / diseñadores de gameplay haciendo intentos de cinemáticas, con movimientos virtuales demasiado "perfectos". Con esto se recupera ese tacto de cámara humano, y en mi opinión, se nota mucho. También, esa sensación de poder moverte por el set, buscando los mejores ángulos, es más real y (creo) fomenta más la creatividad durante la creación de contenido que verlo desde pantallas sentadito
  73. #47 Muchos de los avances hacia tecnologías de 8K, van enfocados a aumentar la informacion que es capaz de transmitirse dentro de una imagen, no solo su nitidez.

    Si tu PC es capaz de escupir composiciones (un render es una composicion de muchas imagenes y procesado de las mismas en diferentes fases) de 8K de resolucion a 60FPS, significa que puedes hacer una burrada de efectos "gratis" con todo ese bando de ancha extra.
    Por ejemplo, en mi caso he llegado a tener render pipelines complejas en tiempo real, que no aceptan anti-aliasing en alguna capa por diferentes razones (a veces, post procesos como el anti-aliasing necesitan almacenar, usar, o modificar, informacion dentro de un buffer limitado, o con restricciones debido a otros post-procesos con los que entra en conflicto (recuerda esto es tiempo real, no una granja de render, los recursos son limitados, y quieres 60 imágenes por segundo). Una de tus pocas soluciones en estos casos, es subir la resolucion inciial de esa capa, y reducirla con las demás al final (al renderizar en más resolucion, tienes mejores bordes, y al re-escalar hacia abajo, encima los suavizas (antialising a lo burro))
  74. Espectacular el vídeo, pero no soporto el rollo que tienen algunos youtubers de hablar con voz melosa en plan como si me estuvieran comiendo la oreja y se dedican a enfocarse a sí mismos para más ego, es que este hombre parece como cuando sales de fiesta y la última te la tomas en su casa y te está acaramelando para ver si consigue percutirte el ojete.

    Dicho esto, me quito el sombrero pero no los calzoncillos ante semejante explicación tan didáctica y divulgativa.
  75. #73 Totalmente de acuerdo, de hecho, super coincidencia, ayer me llamaron de una empresa porque quiere montar este tinglado, es una productora normal, hace algo de cine, series y esas cosas, me llevo bien con ellos y me mandaron el mismo vídeo, ¿esto se puede hacer? ¿cuanto cuesta?.. iré esta semana a ver que se cuece, la cosa es que los Vive trackers, que es lo que más se usa y da muy buen resultado, están agotados, no los encuentras en ningún sitio.
  76. ¡David Rivas, mámame el huevo!
  77. #77 Se puede hacer, de hecho el tipo tiene un programa propio (hecho sobre UE4) que se llama Cinetracer y si no me equivoco el enfoque es crear cinemáticas de escenas 3D con herramientas de tracking (tipo ViveTrackers) o periféricos tipo mando PS4 etc, o periféricos custom como las ruedas de inercia que utiliza para simular una grúa. Pero puedes encontrar soluciones de diferentes si realmente solo necesitas rodar escenas en 3D.
    Los costes se disparan cuando lo que quieres hacer es grabar escenarios reales vestidos con escenas 3D en tiempo real, renderizandose basadas en el frustrum de la cámara. Necesitas soluciones de tracking para las cámaras de estudio, y aunque en muchos casos un Vive Tracker te puede valer, en muchos otros no. Traen un par de problemas que para cine no valen ya que no ofrecen fiabilidad profesional. Te puede interesar este artículo donde elogian la precisión de un sistema barato y accesible como Vive, pero desvelan ciertos problemas, como un jitter constante (que con correcto emplazamiento de sensores y calibrado se puede reducir, pero no eliminar) y un problema al respecto de que si un tracker pierde el tracking durante un ciclo, al recuperarlo, su plano de referencia puede haberse inclinado unos grados, destrozando la integración con la realidad en muchos casos (quizá no para fondos lejanos o no enfocados). Son la hostia, pero no como una solución en la que puedas confiar durante un rodaje, ya que esto sería un problema constante. Eso significa gastarte 10.000€+ en cámaras robotizadas con tracking incorporado o grúas robotizadas, o sistemas de tracking óptico que pueden valer para las cámaras de estudio que ya tendréis.
    Luego esta el hecho de renderizar la escena. Es cine, necesitas detalle, necesitas raytracing, y probablemente por tanto, necesitarás varios PCs para tirar la escena en condiciones. Clusterizar PCs para que compartan la carga de una misma escena 3D proyectada sobre diferentes displays, requiere de unos cuantos retos que no son fáciles de solucionar. Hay empresas que ofrecerán asesoramiento, pero en ningún caso será barato. Necesitas centralizar el input (los trackers, o otros tipos de input que tengais para la escena, triggers, eventos, etc), probablemente a través de VRPN, centralizar cualquier pedida de deltaTime o Time que se haga en cualquier script de la escena del game engine que utilicéis, ya que esos valores, sacados de la CPU, varían entre PCs y producirán diferencias entre los displays de los que se encarga cada PC. De la misma manera necesitarás genlockear las GPUs de todos los PCs para que produzcan imágenes exactamente al mismo tiempo (solo la linea Quadro de NVidia es genlockeable, €$€$€$€......), lo mismo ocurre con las Cámara y los Proyectores.

    Si este es tu caso, creo que el último de tus problemas, es no encontrar Vive Trackers para comprar xD Suerte si os sale lo que queréis. Me encantaría ver vuestro montaje si lo lográis. En mi opinión, si alguien en España se monta una solución decente para realizar estas cosas, va a bañarse en oro
  78. #79 Gracias Canjio..
    La productora que me ha llamado tiene presupuesto, de hecho tiene un plató enorme, algo descomunal.
    Sabia que el vive tracker da algunos problemas, pero no sabía que se podían solucionar.
    Respecto a las máquinas, eso es probarlo todo, había pensado en NvTesla, pero antes quería ver el rendimiento de las 3080 en SLI o las 3090, cuando salgan, También están las titan RTX, pero vamos, la maquinaría aún no me preocupa demasiado..
    Sobre el tema del timecoder, he mirado unas tarjetas de blackmagic, son compatible con unreal, de hecho tienen un pluging y te solucionan todos los problemas de entradas y salidas de vídeo, te sincroniza los FPS vamos un problema menos. Me preocupaba el tema del alfa, es mucho proceso y unreal lo hace por shader, o sea muy caro, pero hay un software que ha comprado unreal (epic megagrant) que ahora es gratis, y es una puñetera pasada, se que puedo contar con display led, pero no es muy grande 2m2 no da para nada, la cosa es que son muy caras esas pantallas. Había pensando en proyectores led, pero aún no he visto nada.

    Por cierto creo que ahora van a sacar un modelo de vive trackers con más precisión, a ver que tal van,

    Gracias por la info, por cierto, creo que El Ranchito, tiene ya montado un plató así.. pero no me hagas caso.
  79. #80 No conocía NvTesla, la verdad, pero por lo que veo es GPU en la nube. Igual con 5G se podría, pero ¿de verdad a día de hoy se podría renderizar en tiempo real en la nube con tan poco Lag para que no se note? (Ya te menciona el lag el tipo del video con una escena tirada por 11 PCs. Sustituir eso por computación en nube igual hace que renderize instantáneo, pero transmitirlo por red, mi intuición de me dice que por cojones tardará más, y estarías introduciendo un problema un poco limitante en cuanto a lo que un plano de cine mínimamente dinámico pediría, creo, especulando todo.
    En cuanto al SLI, por lo que tengo entendido, su soporte se ha ido abandonando y solo la 3090 soportará SLI, además, cuenta con que UE4 y usar SLI puede no funcionar. Si funcionara, además, solo seria para builds ya empacadas, en modo Editor no tiraría en ningun caso una configuracion SLI, y sin embargo una de las mayores maravillas y ventajas de usar estas nuevas mierdas es la capacidad, no solo de renderizado, sino de EDICION en tiempo real. Permitir que clientes, directores de cine, los propios artistas o quien le toque, sean capaces de introducir cambios de manera rapida sin que se necesite recompilar el proyecto para sacar una nueva build. . Además, muchos de los plugins que mencionas, te funcionan en modo editor (te vendrá bien checkear Composure si no lo conoces todavia!).
    En las blackmagic gastate pasta, yo uso una Quad 2 y se queda corta, se calienta durante el rodaje y aunque el PC vaya fresco, a la capturadora le cuesta y dropea muchos más frames de lo que sería aceptable.
    En cuanto a limpiar por Shading, no hay nada mas rápido que un shader en cuanto al procesado de imagen. Lo que tiene un real es un chroma keyer un poco basico, y cortito para necesidades profesionales en calidad, pero no en velocidad.
    Y sí, yo tambien quiero probar el Reality Engine y ver qué ofrecen gratis. Pero no me hago ilusiones, son una empresa con gran oportunidad para hacer pasta y hasta ahora venian ofreciendo el software por ~40k€. Si lo sacan gratis, me huelo que va a haber muchas pegas. Además, me molesta porque UE4 y su colaboracion con RealityEngine han provocado que UE4 abandone el desarrollo de ciertas herramientas que habrían acabado sacando y serían ORO para desarrollar un pipeline en condiciones para hacer integración de AR en condiciones. Pero bueno, eso ya es otra cosa xD

    Y sí! estamos a 2 velas y no podemos invertir demasiado en equipo durante una temporada, pero me haré con los nuevos Vive en cuanto pueda =D

    El ranchito, claro, como no xD
  80. #81 Quería decir Titan, de todos modos con una muy buena red, pero no sé. Es que les tengo manía a las Quadro... iré probando,
    Yo llevo mucho años con unreal, y la verdad es que tampoco es tan exigente si sabes hacer bien las cosas, a mi me han llegado escena con una optimización que da asco, y normal, así no tira, pero le he metido objetos con millones de polis, solo para ver, y no lo siente, Donde siente las cosas es en el shader. Hace siglos estaba "testeando" para una empresa un nuevo sistema de MS, de aquella era nuevo, mixer reality, la cosa es que habían hecho videogametria, escanear una persona moviéndose, es como hacer captura de movimiento pero te traes también el modelo.. Todo venía empaquetado en un video mov, ni idea de donde metían el modelo, supongo que era un nube de puntos dentro del vídeo a parte de la textura y dentro de esta la posición de cada punto. EL problema era el shader, el sincronismo, se piraba y adiós, era muy costoso tratar video, y te hablo de de un 2k, imagina un 4k, es una de las cosas que me preocupa.
    La empresa esta pillo un epic megagratns o algo así, vamos que EPic tiene 100 millones para regalar, y a esta empresa le entró una pasta a cambio de regalar el soft.

    SI los del Ranchito andan que lo tiran.. xD
  81. #82 Se ve que nos dedicamos a lo mismo jajajajaja Xq tb hemos jugado con el video volumetrico y nos parece una chulada, los de DepthKit se han puesto las pilas hace poco además.
    Y es vdad que optimizar una escena en condiciones te vale en muchos casos. Pero sigo pensando que para una setup de cine, no te puedes saltar el hecho de tener que escalar a base de añadir PCs, y solo el hecho de poder encadenarlos es donde se va la pasta a saco. Ahora, totalmente cierto la de cosas que se pueden hacer con solo 1 PC es impresionante y vale para hacer un montón de negocio. Solo digo que si el objetivo es cine o directos, necesitas que te sobre la potencia, necesitas clusterizar y meter al mix herramientras de realizacion, necesitas pasta y gente con conocimientos y cabeza si quieres poder llevarte el setup y confiar en que nada se cuelga, todo irá suave, y todo es solucionable. En mi caso esta a nivel utópico por presupuesto y sigo currando en tener una workstation potente con herramientas, escenas y compos a medida para mi potencia.

    Digo en serio que me gustaría ver lo que montárais si os lanzáis, no se si hay privados por meneame, pero durante los proximos meses tb estaremos haciendo progresos, me gustaría encontrar un equipo con los mismo problemas con quien compartir soluciones! Aquí me tendrás si es el caso (aunque entiendo que lo primero es proteger vuestro producto, yo hablo desde la ilusión naive de un desarrollador xD)
  82. #83 Que majos los de Epic, acaban de soltar templates para producción virtual, o sea, todo el tema de montar la escena cámaras, fustrums etc..
    Me ha gustado esto, un diagrama de como se monta un tema de esto a la grande .docs.unrealengine.com/en-US/Engine/Rendering/nDisplay/InCameraVFX/InCa

    Estamos mirando mil cosas a ver si sale esto, yo creo que sí, pero vamos, este es el futuro, en cuando salgan 3 ó 4 que puedan hacer esto el resto de productoras se van a comer los mocos, y aunque entren ya será tarde y les va a costar.

    Un saludo
comentarios cerrados

menéame