edición general
130 meneos
1384 clics
La GPU china Fenghua No.1 rendiría como una GeForce RTX 3060

La GPU china Fenghua No.1 rendiría como una GeForce RTX 3060

Llegan nuevos informes en torno a la GPU Fenghua No.1, una de las futuras GPUs de alto rendimiento creadas por la compañía china Xindong Technology en colaboración con Innosilicon. Según los últimos informes, la GPU ya es capaz de funcionar de manera estable y ofrece "un rendimiento extraordinario en el sistema operativo Tongxin UOS", un Sistema Operativo muy popular en China que se desarrolló como parte de una iniciativa gubernamental para usurpar Windows.

| etiquetas: gpu
Comentarios destacados:                  
#1 un Sistema Operativo muy popular en China que se desarrolló como parte de una iniciativa gubernamental para usurpar Windows.
Usurpar dice :shit:.
  1. un Sistema Operativo muy popular en China que se desarrolló como parte de una iniciativa gubernamental para usurpar Windows.
    Usurpar dice :shit:.
  2. Como una GeForce RTX 3060 capada :troll:
  3. Durante un mes. Luego rendirá como una estufa durante unos minutos.
  4. #0. Esta noticia confirma muchas de mis sospechas. Más rendimiento, más consumo, más integración y minituarización solo puede acabar conduciendo a menos vida útil y a una mayor tasa de fallos o errores. Es lo de siempre pero que parece que irá muy a peor, pagar más por tener lo último en tecnología acaba resultando la peor de las apuestas.

    Tengo una placa base en su momento enfocada al "gaming" que petó ella sola supongo que por exceso de recursos y de potencia... en cambio tengo otras placas base génericas de la misma época que al ritmo que van se jubilarán conmigo. Puede parecer una broma, pero hablo muy en serio.
  5. Una 3060 ... mucho me parece. o_o
  6. #4 no se yo que confirma... la 3060 es bastante normalita, igualar ese rendimiento tampoco es un hito en la Informática. Y el hardward fundiona aumentando el rendimiento y la miniaturización desde hace medio siglo, y no ha aumentado la tasa de fallos. Solo es la ley de moore.
  7. #0. Disculpame. La página de tu meneo me llevó a esta otra noticia :

    '...Los Intel Core de 11ª han sido las CPUs más propensas a fallar...'
    elchapuzasinformatico.com/2022/01/los-intel-core-de-11a-han-sido-las-c

    El resultado es mi comentario #4 en este hilo. Indirectamente el comentario viene a cuento pero se sale un poco del meneo. Respecto a las tarjetas gráficas chinas todo competidor en el sector es poco, pero el tema de los altos consumos eléctricos en estos componentes me preocupa bastante.
  8. #7. En #8 aclaro a qué me refería en #4.
  9. #1 Es una distribución Linux, su distribución.
  10. #8 lo del alto consumo si que me preocupa, Las próximas gráficas de nvidia se comenta que estarán sobre los 600w, me da la sensación de que mi próximo PC va a estar a la altura de mi horno. Lo de los fallos yo creo que viene más por intentar forzar tu tecnología para igualar a la competencia. Intel lleva tiempo por detrás de AMD y se ve que está forzando mucho para no quedarse muy atrás
  11. #4 Puede ser similar a los coches de competición, rinden que asusta pero no les pidas que hagan 300.000 kilómetros.
  12. #4 Es fisica pura, nada de sospechas.
    Electromigracion, leyes termodinamicas, estres de materiales, estabilidad y resistencia a cargas electricas, uniones entre partes, soldaduras ... etc... Todas cobran mas y mas relevancia segun reduces el tamaño del componente, segun optimizas los recursos electricos y fisicos... todo suma o resta.
  13. #7 Sea mejor o peor rendimiento tener un fabricante propio que pueda decir "cierra las fronteras que no me afecta" es un objetivo envidiable para cualquier pais. Ya veremos en que queda.
    Aunque la grafica y el procesador chinos rindiesen como un ordenador completo americano de hace 10 años, seria mas que suficiente para mantener toda la produccion china y seguir avanzando en todas sus investigaciones con las fronteras cerradas. Un embargo tecnologico no causaria ningun daño a la economia interna china y ese es un objetivo que china tiene marcado con claridad.
  14. #15. Efectivamente. Pero una cosa es estrechar los límites mejorando lo presente y otra sobrepasarlos a sabiendas y sacando al mercado productos carísimos de dudosa calidad y con fecha de caducidad en un sector donde la caducidad no debería tender siempre a cero.
  15. (Edit #17) #15. Me sobra un 'no' en : "...donde la caducidad debería tender siempre a cero...."

    Estamos hablando de electrónica, productos imperecederos y casi siempre reciclables y reparables si están fabricados con un mínimo de calidad.
  16. #9 "exhaustiva certificación de adaptación en profundidad" suena bastante marciano.
  17. Un sistema operativo muy popular que no es tan popular y que es una distribución de Linux.
  18. #5 Tengo curiosidad, por que una 3060 te parece mucho rendimiento ?, las x60 de Nvidia han sido siempre unas tarjetas con un rendimiento medio (o incluso bajo según a quien le preguntes) y un precio "económico", sobre 200 euros o un poco mas.
    Que la locura de falta de stock y de precios de ahora haga que mucha gente solo pueda permitirse ese modelo (y a precios carísimos) , no quita que los modelos "buenos" para gaming siempre hayan sido modelos superiores: x70 para arriba.
  19. #21

    Más que nada por la parte anterior al xx60 ... La serie 30xx son equipos bastante potentes hoy en día como para un recién llegado las iguale.
  20. #22 Diría que esa percepción solo existe debido a que ahora mismo las tarjetas gráficas para gaming son inaccesibles y carisimas. En condiciones normales las 3060 sería una tarjeta entry-level, en cambio ahora la gente se pelea hasta por tarjetas de hace 2 generaciones.
  21. #23

    La entry-level costaba de origen unos 300 napos. Hay entry-level más baratas (o teóricamente más baratas que ya sabemos como está la cosa)

    Yo en su día pillé una 970 por poco más (que sigue en activo, por cierto)
  22. #24 Por ejemplo la Nvidia GTX 960 salió en el 2015 con un precio aconsejado de 200 dólares, otra cosa es que en España se inflen los precios, además a los pocos meses suelen bajar.
    Yo compré la mía por 220 euros, todas las tarjetas x60 que he ido comprando siempre ha sido rondando ese precio.
    Hasta que explotó todo y se ha vuelto imposible. No se qué espera la industria del videojuego, a quién van a vender los juegos cuando la gente no se pueda permitir comprar equipos ?
  23. Ese es el camino.... Vaaaaamoooossssss Chinaaaaaaaaaaa

    Solo con una China fuerte, una Rusia cambiada, una India arrolladora y un África naciente.... Podremos ver un EEUU reluciente y una Europa empoderada.

    Vamos humanidad DEMOS EL SIGUIENTE PASADO EVOLUTIVO
  24. Sinceramente, si analizas AMD o Nvidia se basan en tecnologías de muchísimas empresas diferentes con factorías en diferentes lugares del mundo con múltiples tecnologías propietarias.
    Aquí estamos hablando de tecnología china de 12nm. Mucho jaja de que van por detrás en muchas cosas, pero de verdad, esto es un logro impresionante para un solo país por muchos millones que sean, ya no te cuento teniendo en cuenta como estaba China apenas hace 20 años. pensemos que la mayoría de estas tecnologías son trabajos e investigación de expertos de hace muchos años, imagínate dentro de otros 20 años.
  25. Copian todo, no van a copiar la nvidia. Otra cosa es que te dure luego más de 2 semanas
  26. #9 Usurp : Tiene el mismo sentido negativo en Ingles que en su traducción española. Quitar algo a alguien no teniendo derecho a ello
  27. Pregunta sincera hay una notable diferencia en calidad gráfica de un videojuego actual a uno de 2015-2016? Es decir época en que salió The Witcher 3.

    Yo ahora no puedo jugar a calidad máxima a los videojuegos nuevos, pero no he notado un gran avance en los gráficos respecto a los cambios de hace 2 décadas 2000-2010. Los avances entre 2011-2020 han sido notables, pero no excesivos. Por ejemplo, Tomb Raider 2011 comparado con los siguientes seguía teniendo más o menos buenos gráficos y los siguientes han mejorado pero no una barbaridad respecto al original, por lo que recuerdo.

    Y menciono ese juego porque es el primero desde que volví a a jugar, 2016 a llamarme la atención.

    Así que si esa tarjeta gráfica se supone que tiene el rendimiento de la 3070 ya sería más que suficiente.

    El rollo viene por algún comentario que decía de que aunque rindiera como una gráfica de hace 10 años daría independencia, y si nos vamos a las posibilidades gráficas si fuera algo más reciente digamos 2015 o eso ya sería espectacular aunque fuera la generación anterior. Y se podrían jugar a buenos juegos.

    Por la parte de ciencia, tampoco causaría muchos cambios. Cuánto ha mejorado el rendimiento con las nuevas gráficas respecto a anteriores, me refería a CUDA y cosas de esas.

    Y lo más importante da independencia. Eso es lo que Europa debería buscar. Pero para eso necesitaríamos estar más unidos.
  28. #13 Horno no se pero ya consumen como un microondas, y a nada que metas cosas junto al procesador ya tienes el consumo de una estufa de 1kw, y al precio que está la electricidad como te descuides las facturas te salen por el ojo de la cara.
  29. #25 Tengo entendido que en USA los precios salen sin impuestos porque cada estado tiene impuestos distintos.
  30. #28 Es que la nvidia es muy mala.
  31. #23 las referencias que tengo es que la gama x050 era la gama baja, que quizás ahora mismo esté ocupada por la gama GTX 16XX, la gama x060 media alta, la x070 gama alta y la x080 gama entusiasta, sobrepasada ahora por la GTX 3090.

    Según las estadísticas de Steam (1), la GTX 3060 ocupa el lugar nº 11, parece que hay más GTX 3060 en equipos portátiles. ocupan la posición nº 8, la que va ganando es la GTX 2060, en el puesto nº 4.

    (1) Encuesta sobre hardware y software de Steam: February 2022
  32. #24 aún la tengo yo y me va el csgo a 210 - 230 fps, en todo bajo claro ,pero también es verdad que lo tengo en 1280 *720 o algo así no lo recuerdo y la pantalla extendida que parece que estén todos gordos xD, y con un monitor de 240hz
  33. #21 Lo que pasa ahora es increíble, desde siempre la gama barata, la serie 50 o 60, costaba poco, entre 150 y 250 como mucho, la 70 y la 80 se ponía entre 350 y 500, y de ahí a la gama alta que era la 90, entre 600 y 900 euros dependiendo de la pijada de turno, y si era o no Ti y esas cosas, precio de Nvidia en EEUU, Ahora mismo por 500 pillas una 50 o 60 con suerte, y te puedes ir a los 2000 euros en una 90. De hecho, algo increíble ha sido ver como antes un ordenador portátil con una gráfica potente, una 2070 o así, te venía costando 600 euros más que el mismo en sobremesa, pero actualmente tienes portátiles de marca, con una 3070 por 1500 euros... algo que no encuentras en un pc de sobremesa-
    Esperemos que, como dicen los "expertos" en septiembre el tema relaje, con la salida de la serie 4000, y el cambio del sistema de minado, tendremos gamers que venden su serie 3000 para pillar la 4000, mineros vendiendo sus gráficas que ya no les valen, en pales, porque no creo que las vendan una a una. Supongo que la producción aumentará eso baja el precio, por otro lado intel meterá sus nuevas gráficas, y Biden a quitado aranceles, entre ellos los que metían entre un 5 y un 25% a esta tecnología. O la diferencia entre la serie 3000 y la 4000 es muy gorda y el precio de la 4000 muy bajo, o Nvidia se va a comer muchas gráficas.
  34. #23 SI incluso ves webs que hacen comparación entre una 1070 y una 2070... y cosas así.
  35. #3 claro porque no
  36. #4 Tu comentario es un poco de barra de bar. Más miniaturización e integración hacen que el consumo sea menor y por tanto menos calentamiento. Otra cosa es que aproveches eso para meter más transistores o aumentes la frecuencia, que en ese caso si vas a tener más calentamiento (con mucho más rendimiento eso si) pero también puedes orientarlo a que el consumo y calentamiento sean menores, como hacen muchos procesadores de portatiles o móviles.

    De todas formas lo que suelen fallar casi siempre no son los chips, si no toda la electrónica que va alrededor de este (fuentes, condensadores, soldaduras...). Un procesador si trabaja dentro de los rangos de voltaje y frecuencia que da el fabricante es muy extraño que se rompa, a no ser que sea un fallo en el sistema de refrigeración y aún asi tienen mecanismos para detenerse en esos casos.
  37. #40. OK, entonces prueba a explicarme el enlace en #8.
  38. #21 Intel, que tiene bastante más experiencia, ha anunciado hace poco su vuelta a las gráficas dedicadas con la gama Intel Arc y en rendimiento de su modelo top no está mucho más por encima (según dicen, parecido al de las RTX 3070). Así que no está mal el rendimiento de la gráfica china
  39. #30 Diferencia hay y mucha pero muchas veces no se ve o es tan común que nos pasa desapercibidas.
    Yo soy artista técnico en videojuegos, en parte me encargo de la calidad visual, no de la calidad del modelo, eso es cosa de artistas, yo hago que la tela parezca tela, y que el pelo parezca pelo etc etc.

    Un ejemplo, en el 2015, para hacer el efecto de luz en el fondo marino, pillábamos 2 ó 3 imágenes de lo que llamamos causticas, (esas líneas de luz producidas por la refracción) las movíamos, las sumábamos, y 4 operaciones matemáticas y ya, daba el pego, la gente lo veía y ya, ahora se pueden hacen de verdad, o sea, tienes la maya 3d del agua animada, y solo hay que simular la física para que la luz se concentre y se deforme y que parezcan causticas, son más realistas pero seguramente no se aprecie.

    Hay muchas limitaciones técnicas que suplíamos con ingenio, ahora no tenemos esas limitaciones, a nivel gráfico queda mejor, sí, se pueden hacer cosas que antes no se podían hacer, sí, es una mejora gráfica, eso depende del jugador.. Por ejemplo, cómo animamos un personaje, tenemos una malla, un modelo 3d, y un esqueleto con muchos huesos, mediante un proceso llamado "Riggeado" hacemos que ese esqueleto deforme esa malla, y es lo que veo en el juego, esa malla está compuesta por polígonos y esos polígonos tienen vértices, los huesos de ese esqueleto mueven esos vértices, antes teníamos un límite de 4 huesos por vértice, eso era que a un vértice solo le podía influir 4 huesos, y era una limitación en zonas como la cara, manos, pecho etc, ahora no tenemos ese limite, un jugador igual no se da cuenta, pero ahora cuando un personaje levanta un brazo o estira una pierna, no se ve esas guarradas como de textura estirada que antes eran muy comunes. Antes metíamos la ropa en todo es proceso, ahora mucha ropa va por encima del modelo y se anima en tiempo real con físicas, igual no te das cuenta, pero está ahí.
    En FX, o sea sistemas de partículas ni te cuento los avances que hay, en 5 años, el avance ha sido tremendo.... un ejemplo que me tocó hacer, antes una bandada de pájaros era animar un montón de pájaros, hacías 3 ó 4 y los copiabas, ahora animas un pájaro, y dentro de un sistema de partículas, creas un comportamiento, que no se atraviesen, que sigan a un líder, que esquiven objetos, algo de aleatoriedad y tienes un sistema super realista de animación de pájaros por IA... que puedes usar donde te de la gana, incluso lo puede usar en gameplay para atacar…   » ver todo el comentario
  40. #43 Gracias por tu respuesta.
    Por cierto, ya que hablas de hacer 2 juegos, por eso por ejemplo algunos juegos de PC no son next gen, por ejemplo el NBA2k22 o el FIFA22.
    Y cierto ya hace un tiempo que unreal 5 ha salido, aún no se ha creado ningún juego con el? Es decir, que vaya a salir este año o el próximo con el nuevo Unreal. O aún el Unreal 5 no es lo suficiente maduro, aún?
  41. #16 No sé cómo tu comentario no está más arriba. Es lo fundamentalísimo de todo esto.
  42. #16 Lo siento pero no es tan sencillo... En los ochenta la URSS también tenía copias de los ordenadores de la época. Que al final quedaron en ... Pues eso, no es sólo avanzar técnicamente, es también convencer al resto que tú tecnología es tan buena que debe estandarizarse. Sino pregunta a Sony y su minidisc o el vídeo beta.... Si nadie usa tu tecnología de poco sirve. Y china no tiene una buena fama para como imponer estándares.
  43. #27 Puede ser un paso enorme, pero no implica nada especial... Como ya he dicho anteriormente, la URSS en su día también copio muchos procesadores y pocos pcs rusos tienes hoy en día.
  44. #47 Tarjeta gráfica con buen rendimiento y buen soporte de linux a mi suena muy bien. La fama de las cosas chinas es discutible, pero la fama de nvidia... www.youtube.com/watch?v=_36yNWw_07g
  45. #29 Usurpar, pirateria...

    Otros ejemplos: gasto público en sanidad y educación. En cambio, presupuesto de la casa Real o inversión en defensa.

    Hay que prestar mucha atención a las palabras y que intención tienen.
  46. #35 Aunque esto es siempre subjetivo, yo hablaba de tarjetas para gaming, y diría que la serie x50 no se consideraba tarjeta para gaming, podría ir en un ordenador de sobremesa para tareas comunes y para algún juego ocasional, pero entre la comunidad de jugadores (y entre los entendidos que aconsejaban sobre gaming) ni de coña es una tarjeta que la gente comprase para jugar, incluso la x60 estaría ahí en el límite y muchos te aconsejaban mínimo una x70 para gaming serio.
    Pero bueno ahora ha cambiado mucho la cosa, con la escasez que hay la gente se pelea por cualquier tarjeta que medio funcione.
  47. Lo drivers también jugarán un papel muy importante. Yo creo que es lo más difícil del desarrollo del hardware, tener un software que lo sepa exprimir al máximo.
  48. #13 Tanto AMD como Nvidia planean sacar una nueva generación con la idea de hacer chips multimódulo (o sea, juntar en la misma pastilla más de un chip que trabajen de manera coordinada). Diseñan un chip monolítico para la gama media-alta y para su gama alta-extrema lo que hacen es juntar dos de estos (multiplicando el consumo por dos también).

    Todo esto con pinzas, pero los rumores apuntan a que AMD ha mejorado su arquitectura y junto con un nodo de fabricación más moderno y eficiente consume bastante menos que la actual, con lo que juntando dos chips consiguen mucho rendimiento de manera muy competitiva pero sin aumentar los consumos actuales o sólo de manera anecdótica. Nvidia sin embargo, no ha conseguido disminuír ostensiblemente los consumos, así que al sumar dos chips para su próximo tope de gama, parece que efectivamente el consumo se va a disparar.

    Intel, con sus gráficas que aún no han presentado (lo harán en breve), parece que estarán a la altura de la gama media-alta de la generación actual (pero no a los topes de gama de amd o nvidia), eso si, consumiendo menos y probablemente costando menos (si quieren competir es la baza que les queda, y más cuando la siguiente generación está al caer). Les queda bastante trabajo por hacer, pero las bases parece que son buenas y hay mucho margen de mejora.
  49. #44 Hasta hace nada, unreal 5 era más una tecnología en preview para ir investigando y jugueteando, distaba mucho de ser estable o estar preparada para proyectos de producción, y no sé en qué estado estarán los ports del engine a las consolas (aunque hoy en día, al menos las dos principales, son pseudo pcs y no hay tanto problema en que funcione; otra cosa es la optimización). Es posible que metiendo pasta, estudios con ingenieros de muy alto nivel y con apoyo de epic puedan usarlo ya para ir desarrollando sus juegos que saldrán dentro de varios años o para sacar desarrollos cortos y más accesibles. Pero no todo el mundo puede permitirse no ser productivo sólo por sacar algo con lo último en tecnología.

    Por contra, tienes unreal 4, que ha evolucionado un montón, tiene un huevo de recursos de todo tipo, más que probado, que lo controla "todo el mundo", cuyo soporte en todas las plataformas es bueno o excelente, etc. y que te da una productividad muy grande.

    ¿Por qué tecnología optarías?

    Hasta donde yo sé, con UE5 creo que fortnite (no sé si ya lo usa o aún están portándolo) y no sé si algún proyecto más.
  50. #52 El más importante.

    De nada te sirve tener un montón de silicio si las aplicaciones no pueden interoperar con él. Y la losa de soportar tecnologías modernas y pasadas para que tu gráfica funcione es muy grande.

    Mucho hardware muy bueno ha pasado muy discretamente o se ha pegado grandes batacazos por su pobre soporte de drivers (muchos fabricantes de gráficas han desaparecido simplemente por eso, por no poder mover el juego X o por no soportar la librería Y, por no rendir lo que el hardware se supone que debería con el software Z...)

    Fíjate que Nvidia copa el mercado en parte porque ha impuesto CUDA, que simplemente es un software muy cómodo para hacer ciertas cosas. Nada que las gráficas de la competencia no puedan hacer, pero al ser un software cerrado, los demás lo único que pueden hacer es emularlo (y por lo tanto estás perdiendo un rendimiento precioso y no puedes compararte porque sales perdiendo).
  51. #7 mucho mejor rendimiento que la europea...
  52. Habrá que prepararse para tener toda la documentación técnica en chino. :ffu:
  53. #36

    El CS:GO va con una 750TI que compré en AliExpress por 30 pavos antes de la pandemia para montar un PC pa mi sobrino para que pudiera estudiar en casa.
  54. #41 los Intel de 11 generación usan tecnología de 14 nm y por así decirlo tuvieron que forzar la máquina ( lo que implica aumentar fallos) para no alejarse de las prestaciones de Ryzen, que ya utilizan 7nm y que como dice la noticia tienen menos errores . Precisamente esto demuestra que a mayor miniaturización se puede conseguir menos consumos y más fiabilidad.

    Esas tasas de errores los da una tienda de PC customs que es probable que hagan overclocking y eso conlleva más fallos. De todo modos si miras tasas de errores de generaciones pasadas no deben ser muy distintas.
  55. #44 De nada.
    Unreal 5 lleva años, pero aún no es todo lo estable que requiere una producción, Epic le echa una mano a ciertos estudios para sacar cosas, como lo de matrix, y así van puliendo el motor. En estos casos la prudencia de Epic me pare muy buena, tú imagina que empiezas una producción con el 5 y a los 2 ó 3 meses te das cuenta que no, que no está maduro o lo que sea, es un palo... ahora mismo Epic dice que es estable y se puede usar, pero bueno, los que trabajamos con unreal sabemos que no es del todo cierto, es estable con su código y con sus cosas, lo malo es que con su código y con sus cosas solo haces un tipo de juego, tienes que meter código a mayores y muchas más cosas, y ahí es donde suele haber problemas.

    Los NBA y los FIFA son super ventas, tendrían que hacer 3 ó 4 versiones malas para que la gente no juegue, Me hace gracia porque hay padres de colegas de mi hijo de 12 años que dicen, ¡¡Fornite¡¡¡ buff qué va, yo no dejo a mi hijo jugar a eso, solo le dejo jugar al FIFA, pues el Fifa es de los juegos más aditivos que hay, además que lo ves en los chavales, iniciar a un niño en el mundo del videojuego con el fifa es como iniciar a un adolescente en el sexo, con porno dudo violento, todo un desastre, su sistema de juego es aditivo y está hecho para que cambies cada vez que sale uno nuevo, y además no guarda lo del juego anterior y tienes que volver a comprarlo todo... un desastre para un niño.
  56. #54 Fornite aún sigue siendo unreal 4, tienen mucho metido ahí, el cambio del 4 al 5 podría afectar a los jugadores.
    El 5 tiene un montón de cosas del 4, pero muchas, podríamos decir que es un 4 con muchos esteroides, los dos principales, y que son un antes y un después, son, Lume y Nanite.
    Lume es un sistema de iluminación super realista, hasta ahí podemos decir, bueno, el 4 tiene raytrace, síp, pero para que ese RT sea realista necesitas una gráfica compatible RTX y no todo el mundo la tiene, y lume corre ¿sin problemas? en una 1060, Y personalmente he trabajado con los dos sistemas y me quedo con Lume de calle, también puedes usar raytrace con lume, pero lume solo ya es la caña.
    El otro sistema importante es Nanite, hasta ahora teníamos que mantener a raya los polígonos, es cierto que ahora podemos meter 5 o 6 millones en una escena que bueno, un ordenador gama media los mueve, pero aún así hay que seguir el pipeline de modelar el objetos con millones de polis, 20 millones o lo que sea, hacer después uno de baja, 50.000 polis, y pasar la información que se pierde a un bitmap, el normal map, (supongo que lo sabes pero como hay gene que no) en unreal 5 prácticamente no hace falta ese paso, puedes meter un modelo de 10 millones de polígonos que le dará igual, lo moverá sin problema...
    Si juntamos, que casi no tenemos limites con los polis, y una iluminación tremenda, el cambio es espectacular, Además de un lavado de cara a la interface, y todo lo del 4 pero funcionando sin problema, y una optimización en todo, pues le motor va a ser la caña..
    cc #44
  57. #61 El 5 tendrá muchas cosas del 4 (es una ampliación incremental, viene siendo así desde el unreal primigenio), pero joder, cambia TODO lo importante: la gestión de la geometría, la gestión de la iluminación, la gestión de las físicas... eso es la base de cualquier engine.

    Esteroides es el 3.5 respecto al 3 o el estado actual del unreal 4 respecto al de hace dos o tres años (que se han añadido y modificado muchas cosas y muy importantes "de los alrededores" del engine).
  58. #51 Tengo un supuesto portátil gaming con una 1050. En el mejor de los casos el juego se mueve en stop motion...

    All final lo uso para trastear y cosas administrativas.

    Fue heredado, y no voy a tirarlo, lógicamente.
  59. #59. Gracias por contestar, no acabas de convencerme, pero gracias por contestar. Un sistema digital no puede permitirse "errores" que comprometan un funcionamiento correcto. Lo del overclocking lo supones tú, el artículo que te enlazo no habla de overclocking, habla de una última generación de CPUs de Intel con una tasa de fallos o errores inusual.
  60. #63 Si esta demo la tengo en casa, www.gamewatcher.com/news/unreal-engine-5-games me refiero a la fuente.
    Lo de matrix ya lo comente antes.
    He trabajado con el 5, es una pasada , empecé con unreal 3..
  61. #62 Si por eso comenté, Lumen y Nanite han sido tremendas... es una pasada, yo hago FX, hecho en falta que metan de forma nativa y que sea "simple" algo de raymarcking en Niagara, con eso, el motor sería tremendo y la calidad de los FX en los juegos marcaría un antes y un después, en el 4 lo puedes usar pero está un poco metido con calzador, es muy complicado de controlar y muy caro.

    El estado actual del 4 personalmente creo que está muy sobre dimensionado, han metido muchas cosas, no sé si han apoyado eso con cambios internos, pero hay que ir con mucho ojo, y no me quejo de la estabilidad, en comparación con otras versiones esto casi no peta.
  62. #67 Las últimas actualizaciones del 4 fueron más por convertirlo en una tecnología de transición a las nuevas consolas y cosas que pedían en PC para no quedarse atrás respecto a otros engines que otra cosa. Metieron niagara y chaos que en las anteriores plataformas de consola no se les puede sacar mucho provecho dadas pas pobres CPUs que tienen, el Raytracing, etc.
  63. #48 La Urss no era una economia de mercado y el ordenador en esa epoca no era el mismo concepto que tenemos a dia de hoy, tampoco la Urss era la puta fabrica del mundo xD.
    Pero efectivamente nadie sabe que pasara en el futuro se por puede ir todo a oa mierda, personalmente creo que es el principio de una revolución tecnológica en china en microprocesadores, no es el unico que estan desarrollando, es la primera gpu que alcanza un nivel dentro del estándar actual (muy abajo) pero estan trabajando en muchos otros microprocesadores, ya en cpu tienen el Loongson, y muchos otros en otros ámbitos.
  64. #68 También han metido "con calzador" el tema del agua, que después de mucho curre logré que funcionase porque no funcionan ni los ejemplos, lo de chaos otro sufrimiento, hasta hace nada tenías que compilar una versión... Niagara me parece una pasada pero a mi idea, ya cruzo la línea, cascade lo podía usar cualquiera, tenía sus cosas, pero un artista un poco listo dos tutos y le saca provecho, pero a Niagara no, tienes que tener cabeza de programador y de artista para sacar toda la potencia o tener un equipo tremendo en el departamento de FX, pero vamos, yo encantado con él.
    UDK no compilaba a Ps4, y RockSteady tenía su ultimo Batman en UDK, crearon un compilador para PS4 y tooodas las herramientas que hicieron, el sistema de destrucción, el coche, la lluvia, mil movidas internas, funcionaban con ese compilador, cuando lo pasaron a PC fue un cristo, primero porque eran 4 programadores y segundo porque todo estaba hecho para que funcionase con ese compilador, por eso, la versión de PC iba tan mal incluso en PCs potentes, se retiró el juego a las pocas semanas de salir en PC.
  65. #47 Ni va a imponerlos, al menos de momento. Es desarrollo tecnologico para la independencia del pais, el objetivo de china a largo plazo es poder decir "desconectadme de vuestro sistema si os da la gana, los que saldreis perdiendo sois vosotros"
  66. #17 hacer un compontente que dure mas es mas caro a multiples niveles, ademas va en contra de todas las leyes no escritas del capitalismo de consumo actual. Tan simple como eso.
  67. #55 Eso es en condiciones normales, pero supongo que ante un escenario de escasez de gráficas como en el que estamos, si salen gráficas nuevas que rindan la industria del videojuego ya se preocupará de que sus juegos sean compatibles con esas gráficas.
    De nada sirve hacer juegos si después no los vendes porque los clientes no tienen hardware para moverlos.
  68. #73 "la industria del videojuego ya se preocupará"
    Pues si y no. Puede que si estás desarrollando un juego y tienes acceso a una de esas nuevas, flamantes y escasas gráficas de un actor nuevo en el mercado puedas preocuparte de darle soporte.

    Pero ¿y los miles de desarrollos que no tienen esa suerte? ¿y los cientos de miles de juegos ya hechos? unos buenos drivers marcan la diferencia. Si te compras una gráfica y te pegas meses o incluso años en tener unos drivers adecuados que te dejan jugar a unos juegos pero te dan problemas con muchísimos otros... no vuelves a comprar esa marca. ¿Y siendo esa empresa que saca gráficas nuevas, dónde vas a poner tu esfuerzo? ¿en arreglar problemas con juegos ya hechos o apoyando desarrollos nuevos y flamantes para que tu equipo de mercadotecnia venda lo bien que funciona en tus gráficas ese que acaba de salir al mercado y tan deseado por todos?

    Igualmente, el mercado de juegos sólo es un mercado entre tantos. Está el de diseño (a nivel industrial hay incluso más requisitos y más duros que cumplir), el científico, el del mercado de procesado de imagen y vídeo (transcodificación, trabajo con grandes cuadros de imagen, compresión de calidad, etc), el procesado de redes neuronales/lo que llamamos IA... que puede que haya productos más enfocados a cada nicho, pero las gráficas son soluciones tan versátiles y potentes... e intel realmente más que el mercado de juegos, se metió y apostó fuerte para conseguir esos otros mercados.
comentarios cerrados

menéame