edición general
374 meneos
20361 clics
No podrás distinguir un paisaje real de este creado con Unreal Engine en 4K

No podrás distinguir un paisaje real de este creado con Unreal Engine en 4K

Las imágenes que acompañan este post no son fotografías, y tampoco son renderizados estáticos. Se trata de escenarios generados en Unreal Engine a resolución 4K, y el hecho de que te lo digamos es probablemente lo único que te haga distinguirlos de un vídeo real, porque son perfectos.

| etiquetas: unreal engine , paisajes
Comentarios destacados:                        
#5 #1 No es tan impresionante, es fijo fotogrametría. Por eso es tan realista.

www.youtube.com/watch?v=zQwyuig8UX0

Es resulton en un principio pero necesita mucho trabajo para llevarlo a una escena compleja y que aguante la calidad y rendimiento por que las mayas generadas por defecto son de miles o millones de poligonos.

Por eso también enseñan un cacho, por que es una porción fotografiada, no puedes generar un terreno así detallado con esa calidad.

El tio se a limitado a fotografiar un cacho de terreno, e importarlo al unreal engine.
«12
  1. en dos palabras im presionante  media
  2. Cada vez es más difícil.. llegará a ser imposible.
  3. Aquí el vídeo con las imágenes: www.youtube.com/watch?v=h5AR3Wf1QJg
  4. #1 No es tan impresionante, es fijo fotogrametría. Por eso es tan realista.

    www.youtube.com/watch?v=zQwyuig8UX0

    Es resulton en un principio pero necesita mucho trabajo para llevarlo a una escena compleja y que aguante la calidad y rendimiento por que las mayas generadas por defecto son de miles o millones de poligonos.

    Por eso también enseñan un cacho, por que es una porción fotografiada, no puedes generar un terreno así detallado con esa calidad.

    El tio se a limitado a fotografiar un cacho de terreno, e importarlo al unreal engine.
  5. #5 [...]se ha limitado[...] par favar.
  6. Es el momento de aprovechar mi nuevo ordenador superpepino :-D
  7. #7 especificaciones y coste? Llevo meses intentando hacer uno que no valga un riñon y que sea pepino xD
  8. #8 en forohardware tienes hilos del "mejor" pc que puedes encontrar por el precio que estés dispuesto a pagar:

    forohardware.com/forumdisplay.php/85-PC-por-Precio
  9. Va a 30 fps no? xD
  10. ¡No lo podrás creer!
  11. Cada vez que cambio de ordenador me hacen esto. No amortizo uno.
  12. #8 Yo recomiendo coolmod, a mí me ha ido muy bien :-) www.coolmod.com/index.php
  13. #8 Lo bueno bonito y barato, además es duradero.
  14. #5 Bueno, en Star Wars Battlefront ya se usa.
    También en The Vanishing of Ethan Carter (que ya es más viejo y UE3) y ambos funcionan sin problemas, aunque no sé si con tanta calidad, pero no veo problema en su aplicación real a "gran escala" en juegos totalmente "funcionales".
    Esos ejemplos no son "100%" pero vamos, que de aquí a nada no veo problema para que se extienda a todo.
  15. Ajá muy bonito. Ahora muévelo en un ordenador real sin ser solo una preview.
  16. #4 también está en la noticia, al final ¿?
  17. #17 Sí, ni con direct12 y una titán moverías un juego completo con esos gráficos.
  18. #16 Efectivamente, y en Battlefront es un buen ejemplo de fotogrametría currada en uso real y renderizada en tiempo real con buen rendimiento.

    Esas no, y a esos me refiero, no esta aplicado a nada usable salvo una escena "contenida".

    No he dicho que la fotogrametría no valga, digo que esas escenas son a pesar que diga el articulo que no, son fotografias (en 3D eso si), sin nada más.
  19. Permíteme que insista
  20. #5 Las mayas son abejas o indígenas de américa central?
  21. #9 seguiré remirando, thanks.
  22. Matrix: cada día más cerca.
  23. #3 ¿Por que habla en futuro señor Anderson? :-D
  24. #16 Y si es complicado determinadas cosas, en una roca o objeto sin detalles pequeños en su geometria pues es factible, tiene su trabajo en reducir poligonos pero es perfectamente viable. Aparte se puede instanciar lo que lo hace más usable.

    Un terreno que es lo que muestra en todas esas escenas es otro tema bastante más complicado. No puedes usar un terreno con una malla de esa complejidad.
  25. #20 Correcto, correcto, no te llevaba la contraria pero me refiero a que va a ser un sistema útil en el futuro (ya "lo es"), porque, por ejemplo en "The Vanishing..." ya mostraron cómo ir "cogiendo piezas" y montar un entorno con ellas, es decir, no creo que haya que "digitalizar todo" si no aprovechando las piezas y "unirlas", y cuando se vaya "puliendo", al partir de "partes reales" todo quedará mejor :-D
  26. #22 oops soy usuario de maya y eso pasa factura.
  27. Me encanta especialmente el del tronco del árbol, es flipante como se ven los pequeños detallitos de las rocas, de las hojas caídas y de cada ramita de pino marchitada, impresionante.
  28. #17 #19 Sospecho que el logro es que esto se haya podido hacer, y que aunque aún está lejos de que el usuario normal lo pueda jugar, pero el avance está ahí.
  29. #30 no deja de ser una muestra de las capacidades del Unreal Engine. Pero vamos, esto no lo vas a ver así en un videojuego ni hoy ni de aquí a 5 años.
  30. #31 Yo no soy amigo de las predicciones sobre avances en el mundo de la informática porque muchas, muchas veces dichas predicciones han sido superadas antes de tiempo
  31. #27 Ciertamente la fotogrametría no solo tiene futuro si no ya que estamos en el.

    Es bastante dificil trasladar las imperfecciones de la naturaleza si no es con fotogrametría, y las imperfecciones es lo que te da el realismo, y la perfección algo que se ve sintético por lo que la fotogrametría es una magnifica opción.

    Pero tiene muchas limitaciones debido a como dije la malla generada y la excesiva potencia gráfica necesaria para renderizar algo en tiempo real (imágenes estáticas es bastante más funcional), algunas se pueden suplir trabajando el objeto, pero otras no, los objetos grandes por mucho que los trabajes... y un terreno... como que no.

    Luego hay multitud de objetos que es más rapido y practico hacerlos manualmente que generados con fotogrametría y luego reducirlos en poligonos, lo bueno de la fotogrametría en muchos casos solo es la textura realista que te proporciona.

    Las escenas que vemos no me extrañaría que estuviera por el millón de polígonos o más, y son trozitos pequeños de la escena. No es usable esa definición en nada en realtime, ni es algo meritorio en mi opinión capturar eso e importarlo al UE4.

    Algo como Kite Demo de UE4 que tambien usan fotogrametria si es un trabajo currado y meritorio y aun así necesitas un bicho de grafica, un CPU de la leche y unas cuantas horas para cargarlo xD, pero al final tienes algo usable con una grafica de alta gama, aunque sea a 30fps.
  32. #4 Para los que piensan que no se puede jugar con esa calidad vease este video:
    www.youtube.com/watch?v=7cXHE6LBTqA
  33. #9 uh mola la pag. La voy a revisar a fondo, ya que llevo un mes ahi comiendome la cabeza en si invertir en un i7 de la quinta generación y tener que gastarme un pastizal en la nueva ram y la nueva placa con socket nuevo o si quedarme en el mejor i7 de la cuarta que sale to baratuno en comparación.

    A ver si esta peña me ayuda a ver la lulz
  34. Y la resolución 4k, a no ser que estes viéndola en una pantalla gigante, muy pegado a ella, no sirve para nada porque no vas a distinguirla en nada de otra resolución menor como 2k o incluso hd (1k)
  35. Ahora faltaría que inventasen alguna tecnología que permitiera engañar al cerebro para hacerle creer que se está tocando ese árbol o que se está percibiendo los olores que supuestamente hay en esos lugares.
  36. #6 y "rendimiento porque" (sin espacio)
  37. Esto para cuando este mejor la RV!!
  38. #18 Sí, pero he pensado que a lo mejor la página se cae por el efecto meneame, o que hay gente que tiene capada la web y no youtube (a mí me pasa a veces en el trabajo).
  39. #34 Mola, pero no es la misma calidad que la de las imágenes que aparecen en la noticia.
  40. #42 En teoria no puede serla, no es lo mismo usar millones de triangulos para un metro cuadrado que para todo un mapa. Pero el pego lo da perfectamente, asi visto de forma global.
  41. #33 Una pregunta, hace tiempo escuche que alguien, quizas Cliff Bleszinski oJohn Carmack, estaban trabajando en una tecnica para renderizar o postprocesar solo alrededor del punto donde enfocamos la mirada. Se desestimo para pantallas, pero ahora con los cascos de realidad virtual, creo que podriamos llegar a ver algo parecido. ¿Que opinais?
  42. Os aseguro que con el pedazo de PC que hace falta para que eso funcione al máximo los que andamos justitos sí vamos a poder distinguirlo xD
  43. #20 Teniendo en cuenta que cada generación los escenarios son más grandes y detallados (porque al aumentar la resolución se nota muchísimo el (escaso) detalle de los objetos, hay más profundidad de campo, etc), y cada generación el equipo artístico ha de ser mayor para poder terminar escenarios, personajes y objetos, si no se producen cierto tipo de avances que aligeren el proceso de diseño artístico los costes se dispararían en progresión geométrica o incluso exponencial. Los engines intentan facilitar en la medida de lo posible la creación y composición de escenas, pero crear y "fundir" los materiales y texturas de manera coherente lleva tiempo y trabajo.

    Luego la gente se queja de lo malo que es técnicamente el RAGE, que permite la virguería de tener una única textura gigantesca multiresolución cargada en tiempo real usando una forma bastante eficiente de streaming pintada sin cortes ni fisuras para los escenarios (en principio los juegos normalmente usan muchísimas texturas de distintos tamaños que componen y distribuyen) manteniendo una tasa de fps estable le eches lo que le eches y no se dan cuenta de que sus problemas posiblemente sean limitaciones de ancho de banda o de proceso de las consolas o poco tiempo de optimización. Para que nos hagamos una idea, descomprimir un vídeo 8K (7680 × 4320 pixels) es la muerte para cualquier procesador actual si lo hacemos usando CPU (habrá codecs específicos en las gráficas más actuales, pero no estoy seguro). El rage técnicamente puede trabajar con texturas de hasta 128000x1298000 pixels (texturas que incluyen las capas de color, transparencias, especular, sombreado, normales, mapas de desplazamiento, etc), tomándolas como embaldosados, tiles o cachos, claro está, pero adaptándolas directamente a la configuración y disposición de memoria de cada máquina de manera automática.

    Posiblemente la industria haya tirado o tire por un camino similar, si no a nivel de engine si a nivel de edición (que al usuario le parezca que trabaja sobre un único lienzo). Y la fotogrametría parece que va a ser una pieza clave para "portar" imágenes o texturas reales a esos lienzos, integrando no sólo la apariencia visual sino también la malla 3d dentro del proceso, acelerando enormemente la parte de diseño y modelado de escenas.
  44. #44 ¿Te refieres a frustum culling?
  45. #44 El eye tracking es el futuro de la RV, debido al coste de renderizar en 3D y los precios de las gráficas mínimas (que se quedan cortas) no habrá RV para todos los públicos sin eye tracking.

    La CV2 tendrá que venir con ella y ahí empezar a despegar la RV, si no consiguen tener algo suficientemente funcional en ese sentido para la CV2/VIVE2 seria un gran FAIL.

    La diferencia es bastante sustancial, la parte técnica es que renderizas en 3 capas (o 3 veces), primero renderizas a muy baja resolución la escena completa, luego a una calidad media unos cuantos centímetros y a una calidad alta un par de centímetros dados por la posición de tu ojo/eye tracking, que es en realidad lo que vemos a alta resolución. El area foveal/fovea.

    A pesar de renderizar 3 veces la escena el rendimiento es bastante mayor.
    La dificultad (software) estriba en la unión (blend) de esas dos capas al ser de diferentes resoluciones que dea el pego, sobretodo la capa de alta resolución con la media, aunque creo que ya hay cosas que suficientemente buenas.

    Nvidia ofrecia algo parecido, no me viene ahora el nombre para renderizar los lados a menos calidad, reducir el coste/tiempo de renderizado, el problema es que si mirabas de reojo pues veras los bordes borrosos al no ir controlado con nada tipo eye tracking, pero es raro ver a los lados y daba bastante el pego. De todas formas apenas ganabas por que el area para que no note es bastante pequeña, el borde unos muy pocos centímetros
  46. Esto ya es indistinguible de la realidad. De hecho, ya he tenido algunas confusiones en este tema. El otro día estaba metido en un juego de bolos y me acerqué a un personaje femenino para verlo de cerca: ¡qué curvas, qué texturas! Puse a prueba la física de las tetas, que es donde se nota esto, y me llevé una ostia. Resulta que era una bolera real.
  47. #36 El 4k es para la realidad virtual.
  48. Simplemente, impresionante.
  49. #48 gracias, muy bien explicado. Esperemos que funcionen bien estas tecnicas y las veamos rapidamente en el mercado. :-D
  50. #47 mmm creo que no, para lo que yo digo creo que hace falta "eye tracking", seguir a tu pupila, en incluso donde enfoca. Creo que lo que tu mencionas es un paso anterior que no tiene en cuenta el ojo, si no una camara virtual.

    Pero hablo sin saber mucho del tema, tu me dices si estoy en lo cierto o no. :-)
  51. #46 La calidad gráfica que se consigue hoy en día esta muy por encima de la potencia gráfica necesaria para moverla. Dicho de otro modo, lo que frena el realismo o hiperrealismo es la potencia gráfica. Hay técnicas de hace décadas que se consiguen imágenes más realistas como el ray tracing que siguen sin ser factibles para algo en real time por el tremendo coste de cálculos que necesita. Se utilizan técnicas derivadas pero con mucho menor requisito de cálculos.

    Luego hay mil trucos para suplir la escasa potencia gráfica, como el uso de los normals maps que dan apariencia detallada a los objetos, pero siguen siendo trucos/técnicas, tienes un personaje muy detallado y currado que impresiona pero al final para usarlo lo tienes que reducir el 75% de poligonos y usar un normal map para esos detalles por que no puedes hacer un juego con demasiados objetos/personajes high polys. Y da el pego pero no es lo mismo. Y en RV peor en el caso de los normal maps.

    No conozco el RAGE, pero lo que hablas me suena a un TEXTURE ATLAS, que es útil más que nada para reducir drawcalls que ahora con DX12 se vuelve menos relevante. Y es algo que puede utilizar cualquier engine. (la descompresión de texturas va por CPU si y si que 8k es un dolor de huevos)

    La gente se queja y quiere escenas realistas detalladas pero luego se queja de que necesitan una gráfica de 600 pavos para que vaya a 30 o 50fps. Y dice, joder es que no esta optimizado! la optimizaciones quitando lo de reducir drawcalls, se basan en cargarte la calidad, reducir definición texturas, polígonos y quitar objetos, menos luces y un largo etc. Son dos cosas incompatibles.
  52. #52 Yo estoy bastante seguro, aunque decepciones me he llevado, la cuestión es que si lo quieren hacer una tecnología mainstream no les queda otra, no es factible un equipo de 1500 euros para disfrutar de la RV y pretender vender varios millones de gafas RV. Y se les ha llenado la boca de espuma hablando de RV "para todos" y luego han sacado algo a un coste para privilegiados y es algo que querrán solucionar cuanto antes y eso pasa actualmente por eye tracking.

    La cuestión es también las prisas que tengan en rentabilizar las inversiones en RV y que consigan por supuesto que esas técnicas como dices funcionen suficientemente bien para el comprador final.
  53. Yo si lo distingo. Un bosque real tendría bolsas y peladuras de naranja tiradas por el suelo. El paisaje virtual es demasiado perfecto. :troll:
  54. #2 Nuestros productos son tan buenos que hay personas que no se pueden resistir a robarlos.

    Lidl, la calidad no es cara.
  55. #11 Con una 3Dfx Voodoo Banshee tiene que ir a toda tralla.
  56. #32 En 5 años, ni los ordenadores ni las consolas bajarán tanto de precio cómo para que gráficos así sean rentables para todas las plataformas. Ni de coña.
  57. #34 La calidad de ese vídeo es bastante penosa. Sin embargo este... www.youtube.com/watch?v=MGyaR2sSBkA (ver en 4K)
  58. "Unreal Engine en 4K" -> vídeo en 1080p :palm:
  59. Si quieres ver los fallos que la camara haga un plano de 360 grados alrededor de un objeto, un render de frente con buenas texturas no muestra la calidad.
  60. #58 La calidad no es cara, sobre todo si la robas.
  61. #53 Mea culpa.

    Pensé que te referías a donde mira la cámara en vez de a donde miran nuestros ojos en la vida real.
  62. #50 depende de las necesidades de cada uno
  63. #38 Y mallas con elle.
  64. #44 foveated rendering renderizas solo una zona concreta de la vision del usuario. Si puedes saber donde mira (con tecnología que haga tracking del ojo como Fove) o en una zona concreta (el centro). Para Oculus Rift es posible desde la version 6.0
    Un video de ejemplo www.youtube.com/watch?v=GKR8tM28NnQ
  65. #1 Te recuerdo que la primera imagen del Crysis revolucionó internet. Aquello era tecnología, y no lo de hoy, que como dicen #5, solo es pura fotogrametría.


    Eh, que no digo que no sea impresionante el detalle de las fotos, pero no quita el hecho de que cada vez se lo curran menos.
  66. #50 En unas gafas de realidad virtual que llevas casi pegadas a los ojos tampoco se necesita 4k.
  67. #69 Y "por que es una porción", con el "por que" junto; y resulton con tilde en la o, poligonos con tilde en la i, y tio con tilde en la i. Por no hablar de la puntuación.
  68. #73 algún fallo tenía que tener el comentario, ha sido realizado por unreal engine, pero casi da el pego, parece real.
  69. #34 A costa de dejarte 2500 euros en un buen par de titanes.

    Claro que si. Espera que le digo a mi padre que hipoteque la casa para comprarme un ordenador de 4500 euros para poder jugar a juegos ultra realistas. Y de paso voy llamando a Fenosa para que monte una sub-estación eléctrica al lado de mi casa para alimentar mi ordenador.

    Que si venga ala.
  70. #71 en ese caso yo si creo que se lo curraron poco, aunque creo que habría que ver lo que hizo si hizo algo más que sacar las fotografias e importarlo a UE4 la malla+textura generada por software de fotografias 3D que utilice. Por el modo de mostrar la escena yo creo que hizo bien poco y se limito como dije a ese cachito que fotografió.

    Lo que si, es que la fotogrametria llevado al mundo de los videojuegos y no a una simple escena, en el que hay que tratar el objeto para que sea asequible para renderizar en 3D tiene trabajo, dependiendo el objeto mucho. Hay objetos que compensa hacerlos a mano (claro que el resultado realista no sera el mismo). No creo que se pueda decir que se lo curren menos de forma general.
  71. #34 Sí bueno si vamos a potencia bruta, puedes convertir un mainframe para jugar sólamente, pero si miramos la relación calidad-costes-precio es para llorar.

    Vuelvo a decirlo y no me cansaré, en los 80 a pesar del limitado hardware que se tenía, los juegos estaban mejores optimizados que ahora, no sólo a nivel puro de código sino de uso de los recursos del sistema.

    Salu2
  72. #74 Por supuesto. Errare humanum est. Y parece que a un tal Nebilim le jode que se haga alguna corrección que otra.
  73. #70 vamos que la cosa va en esa direccion. Pero, existen planes de meter eye tracking en cascos de VR? Vamos, por saber cuanto tiempo habra que esperar.
  74. #54 No es del todo cierto lo que dices.

    1) Actualmente y desde hace unos años (desde que existe hardware programable y shaders) se aplican técnicas de trazado de rayos para generar ciertos efectos gráficos. Sin trazado de rayos no habría normal maps (que se basan precisamente en modificar cómo se ve una textura dependiendo del ángulo de visualización y los puntos de luz), ni shadow maps (hay que trazar desde donde viene la luz, el perímetro del objeto y dónde se proyecta la sombra para dibujarla adecuadamente), ni god rays, ni reflexión/refracción, ni... otra cosa es que se aplique para todos los objetos en todos los casos en toda la escena completa como si se hace en un render profesional. De hecho, hay suficiente potencia como para mover el quake wars usando raytracing puro y duro para todo el escenario desde 2008: www.youtube.com/watch?v=mtHDSG2wNho (pondría el mismo experimento de años anteriores con juegos anteriores como quake3, pero no lucen tan bien).

    2) Efectivamente, hay mil y un trucos matemáticos o lógicos para disminuír la carga de proceso y poder dedicar cpu y gpu a cosas más importantes. Si hay dos formas de hacer lo mismo (o de que a nuestros ojos le parezca igual), siempre se va a tratar de elegir la más rápida. Si hay pérdida de calidad, se hará cuando el ojo esté ocupado con otras cosas. Lo que dices de los mapas de normales es ¿para qué estar metiendo polígonos a tutuplén y tan pequeños que apenas se ven si puedes aplicar técnicas de texturizado que dan la impresión de volumen a elementos planos y puedes simplificar la geometría de un objeto engañando al ojo para que parezca más complejo de lo que es? Y por cierto, esto también es muy usado en cine, no es sólo cosa de juegos de ordenador, sólo que de manera más controlada y conservadora. De hecho, se ha avanzado y ahora aparte de añadir texturas "con volumen aparente" existe la teselación, donde si que se añaden polígonos para dar apariencia de volumen (menos que en el modelo original, dependiendo de lo cerca que nos encontremos, etc).

    3) ID empezó a usarlo como megatexture en quake wars como evolución del motor de doom3. Luego lo mejoró para rage y pasó a llamarse virtual texture. Otras compañías desarrollaron la idea posteriormente (que tampoco creo que fuera novedosa más allá de la industria del videojuego). Texture atlas no lo conozco y no sé si es algo anterior, cohetaneo o posterior, pero si, la idea es la misma.

    4) Efectivamente tienes parte de razón, pero…   » ver todo el comentario
  75. #55 se sabe de algun plan de cuando lo implementaran? Yo a ojo supongo que en 4 años habra algo asequible (alrededor de 400 euros) y de calidad o al menos algo razonable (600 euros) pero ya màs estandar en prestaciones.

    En fin, a ver que nos trae este año.:-D
  76. donde quedó mi spectrum ....
  77. #75 Vulkan, DX12.

    Pobres consoleros. ¿Titan? sobrevalorada.
  78. #81 Ni idea, y con el secretismo que hay entorno a la RV ...

    Yo creo que antes, el proximo año veremos los primeros bocetos de la CV2 y en 2 años tendremos la CV2, no van a esperar 4 años para sacar otra versión. Además ya lo han dicho que quieren seguir el ritmo, cosa logica por que es un mercado en constante evolución.

    Si sacaran con eye tracking ni idea, el HMD FOVE lleva, y oculus tendrá algo seguro, si estara maduro para la CV2 ni idea.

    El precio no creo que baje mucho, algo supongo que si, se abarataran algunas cosas pero vendrá nuevas tecnologías como el eye tracking y mejores paneles que tendran su coste, la cuestión es que disfrutarla si viene con eye tracking no necesitaras un bicho de ordenador entonces sera más asequible en general.
  79. #46 PD: vidiaco para entender realmente cuáles han sido los logros y los problemas del id tech 5 que usa rage (ya el juego en si gustará más o menos, me refiero sólo a la parte técnica): www.youtube.com/watch?v=BiQCz2NjPR8

    PPD: Ahora sale el id tech 6 usado por el nuevo doom que básicamente es pulir y avanzar en lo que ha hecho carmack y todo el mundo alucinando y alegrándose de que se fuera de id...
  80. #80 A ver...

    1) He dicho que se utilizan técnicas derivadas del raytracing pero más conservadoras, no se por que te has saltado esa parte.

    Los videos de wolfestein 3D y supongo que quake (este ultimo no lo vi como lo hicieron) se utilizaron granjas de ordenadores.

    Es imposible actualmente renderizar raytracing para algo en real-time con una grafica de consumo.

    Estudios cinematográficos utilizan raytracing y tienen gráficas especiales con "Raytracing Units" y tardas horas en generar un segundo.

    Te lo repito: Como dije y no me equivoco es imposible utilizar raytracing para algo de consumo aun con las tarjetas más caras del mercado.


    2) Hay una diferencia notable en utilizar high poly y normal maps. Normals maps da el pego pero la diferencia se nota.

    La tesselation es una mierda, genera una malla bastante poco efectiva desde el punto de vista del rendimiento, te compensa poner el high poly, es util por que generas volumen de una textura sin necesidad de un high poly pero por rendimiento haces el high poly con una malla mejor y que no tenga polígonos innecesarios a tutiple Me gusta más el parallax mapping aunque tambien es costoso.

    3) Pues ni idea no se exactamente del tema ese.

    4) Te equivocas, el código especializado gráfico lo da dependiendo la plataforma DirectX y opengl y nadie salvo muy determinadas cosa lo toca. Por lo demás perdona pero se ve que no sabes de lo que hablas con optimizar y el tema consolas->PC
  81. #80 #86 Añado no vas a comparar la calidad grafica en un PC con una consola. Y eso es por que en la consola lo hacen con calidad pesima y limitada para que tire, y con más trucos gráficos para disfrazar alguna falta de tecnologías actuales.
    Cuando lo pasan a PC utilizan mejores luces, mejores texturas y pueden enriquecer más los escenarios de multitud de maneras. Y aun lo podrían hacer mejor en todo pero claro tiene que tirar en una gráfica media decentemente y baja de aquella manera, entonces tienen que "optimizarlo" para ellas que no es más que meter el hachazo en calidad o limitarlo

    Como dije quitando drawcalls (que es por el tema del CPU) no hay ni una sola optimización que se haga que no sea para cargarse la calidad gráfica. NI UNA. Y te RETO a decirme una.

    Optimizacion = Cargarse/Reducir calidad.

    Sencillamente ;)
  82. al final los paisajes virtuales van a tener mas resolucion que los reales...
  83. Lo que sí se podría distinguir es el bajonazo en la cuenta corriente si todos los juegos se hiciesen con una calidad como esta.

    Este tipo de tecnologías sólo serán usadas en la práctica cuando salga suficientemente barato como para justificar las horas que hay que emplear (para lo cual hay que pagar mucha pasta a mucha gente que lo deje todo perfecto). En la práctica, los juegos que más éxito tienen no tienen ni de coña que estar a este nivel de trabajo.
  84. #5 Mallas, me cago en mis putos ojos.
  85. #48 El problema real está en que siempre va a haber un retardo entre lo que reporte el sensor y la adaptación de la imagen, y los ojos en este sentido van a percibirlo sí o sí. Los ojos no ven con nitidez fuera del punto central pero sí que detectan rápidamente parpadeos y movimientos fuera de lugar.
  86. #55 Yo creo que la RV no va a despegar por cuestiones mucho más sencillas aún que el precio, como que no es práctico, no va a tener mucha aceptación excepto por los más entusiastas y sobre todo porque la interacción es muy difícil que sea decente.

    Tampoco da pie nada más que determinado tipo de juegos, lo cual lo va a limitar muy rápido en cuanto a ideas por muy espectacular que llegue a ser.
  87. Este va a ser el año de HL3. :->
  88. #35 Si te ayuda, yo me decanté por un i5 de la última porque, por lo que leí, los i7 no se aprovechan y de hecho dan peores resultados en juegos (suponiendo que lo quieras para viciar :-D ). Vamos, que te sale más rentable gastarte la diferencia en la gráfica que es lo que te va a rendir más.
  89. #54 La mayor parte de gente que quiere escenas realistas detalladas no tiene ni idea así que se tragará cualquier cosa que dé el pego.

    Hoy día los juegos son una cuestión del departamento artístico y el realismo tiene cada vez menos peso independientemente de lo que piensen los entusiastas del 3D y los gráficos.

    La rentabilidad de todo el curro necesario cada vez está siendo más difícil de justificar, ya que equipos de desarrolladores mucho más pequeños y usando técnicas 2D más o menos tradicionales sacan mucha más pasta de la inversión inicial que los "blockbusters", además con mucho menos riesgo y tiempo de desarrollo.
  90. #80 Lo que hacen los shaders no es raytracing. Es fundamentalmente diferente, aunque el resultado sea visualmente similar y dé el pego.

    Ejecutar un programa que calcule la luz por píxel teniendo en cuenta múltiples capas de texturas (hechas para emular el resultado de un raytracer en algunos aspectos) no es raytracing.

    Para hacer raytracing tendrías que calcular todos los rayos de la escena y hacerlos rebotar por todas las superficies reflectivas, lo cual se iría de madre muy rápidamente. En tiempo real no se pueden andar calculando trayectorias de rayos, más que nada porque es un problema O(n^x), con lo que habría que tener varios órdenes de magnitud de aumento de potencia para notar una mejoría perceptible. De ahí que se recurra a trucos para que lo parezca sin serlo.
  91. #85 Hace tiempo que cualquier mejora tecnológica no va a hacer que Doom sea más interesante. Doom 3 tenía el motor más avanzado de su época y eso no impidió que fuera un juego plano y soso.

    Si la gente está esperando este doom es por mil cosas diferentes a las innovaciones tecnológicas que pueda tener. De mano, que parece hecho por un equipo que parece saber lo que hace en cuanto a gameplay.
    Doom es un juego que en su día fue una revolución tecnológica, pero no fue eso lo que lo hizo icónico ni un juego de éxito.
  92. #92 ¿no es practico?
    ¿la interacción es dificil?

    hombre yo lo gozo con mi dk2+leap motion interactuando, es una experiencia tremenda aun estando como estamos en el nacimiento de la RV.

    Lo más limitado son los FPS por que produce mareos, pero aun así el concepto de jugar a FPS no sera algo que habra que excluir, si no que igual es una gran baza en el futuro, solo hay que cambiar el chip y que a FPS no vas a jugar sentado y necesitaras un espacio limitado más grande para jugar de pie y moverte.
  93. #98 Pues eso lo va a matar. A los frikis que les (nos) interesan estos temas puede, pero al gran público le va a interesar los 5 minutos que les interesó la Wii y demás controles de movimiento que fueron surgiendo después.
  94. #91 Hoy en dia no hay latencia perceptible entre la generación de la imagen, el envió al HMD y los movientos de la cabeza, el CV1 ya te da 90fps por segundo y el 99% de la personas no notara latencia alguna, cuando se genere 120fps sera cercano a la perfección.
«12
comentarios cerrados

menéame