Llegan nuevos informes en torno a la GPU Fenghua No.1, una de las futuras GPUs de alto rendimiento creadas por la compañía china Xindong Technology en colaboración con Innosilicon. Según los últimos informes, la GPU ya es capaz de funcionar de manera estable y ofrece "un rendimiento extraordinario en el sistema operativo Tongxin UOS", un Sistema Operativo muy popular en China que se desarrolló como parte de una iniciativa gubernamental para usurpar Windows.
|
etiquetas: gpu
Usurpar dice .
Usurpar dice .
Tengo una placa base en su momento enfocada al "gaming" que petó ella sola supongo que por exceso de recursos y de potencia... en cambio tengo otras placas base génericas de la misma época que al ritmo que van se jubilarán conmigo. Puede parecer una broma, pero hablo muy en serio.
'...Los Intel Core de 11ª han sido las CPUs más propensas a fallar...'
elchapuzasinformatico.com/2022/01/los-intel-core-de-11a-han-sido-las-c
El resultado es mi comentario #4 en este hilo. Indirectamente el comentario viene a cuento pero se sale un poco del meneo. Respecto a las tarjetas gráficas chinas todo competidor en el sector es poco, pero el tema de los altos consumos eléctricos en estos componentes me preocupa bastante.
Electromigracion, leyes termodinamicas, estres de materiales, estabilidad y resistencia a cargas electricas, uniones entre partes, soldaduras ... etc... Todas cobran mas y mas relevancia segun reduces el tamaño del componente, segun optimizas los recursos electricos y fisicos... todo suma o resta.
Aunque la grafica y el procesador chinos rindiesen como un ordenador completo americano de hace 10 años, seria mas que suficiente para mantener toda la produccion china y seguir avanzando en todas sus investigaciones con las fronteras cerradas. Un embargo tecnologico no causaria ningun daño a la economia interna china y ese es un objetivo que china tiene marcado con claridad.
Estamos hablando de electrónica, productos imperecederos y casi siempre reciclables y reparables si están fabricados con un mínimo de calidad.
Que la locura de falta de stock y de precios de ahora haga que mucha gente solo pueda permitirse ese modelo (y a precios carísimos) , no quita que los modelos "buenos" para gaming siempre hayan sido modelos superiores: x70 para arriba.
Más que nada por la parte anterior al xx60 ... La serie 30xx son equipos bastante potentes hoy en día como para un recién llegado las iguale.
La entry-level costaba de origen unos 300 napos. Hay entry-level más baratas (o teóricamente más baratas que ya sabemos como está la cosa)
Yo en su día pillé una 970 por poco más (que sigue en activo, por cierto)
Yo compré la mía por 220 euros, todas las tarjetas x60 que he ido comprando siempre ha sido rondando ese precio.
Hasta que explotó todo y se ha vuelto imposible. No se qué espera la industria del videojuego, a quién van a vender los juegos cuando la gente no se pueda permitir comprar equipos ?
Solo con una China fuerte, una Rusia cambiada, una India arrolladora y un África naciente.... Podremos ver un EEUU reluciente y una Europa empoderada.
Vamos humanidad DEMOS EL SIGUIENTE PASADO EVOLUTIVO
Aquí estamos hablando de tecnología china de 12nm. Mucho jaja de que van por detrás en muchas cosas, pero de verdad, esto es un logro impresionante para un solo país por muchos millones que sean, ya no te cuento teniendo en cuenta como estaba China apenas hace 20 años. pensemos que la mayoría de estas tecnologías son trabajos e investigación de expertos de hace muchos años, imagínate dentro de otros 20 años.
Yo ahora no puedo jugar a calidad máxima a los videojuegos nuevos, pero no he notado un gran avance en los gráficos respecto a los cambios de hace 2 décadas 2000-2010. Los avances entre 2011-2020 han sido notables, pero no excesivos. Por ejemplo, Tomb Raider 2011 comparado con los siguientes seguía teniendo más o menos buenos gráficos y los siguientes han mejorado pero no una barbaridad respecto al original, por lo que recuerdo.
Y menciono ese juego porque es el primero desde que volví a a jugar, 2016 a llamarme la atención.
Así que si esa tarjeta gráfica se supone que tiene el rendimiento de la 3070 ya sería más que suficiente.
El rollo viene por algún comentario que decía de que aunque rindiera como una gráfica de hace 10 años daría independencia, y si nos vamos a las posibilidades gráficas si fuera algo más reciente digamos 2015 o eso ya sería espectacular aunque fuera la generación anterior. Y se podrían jugar a buenos juegos.
Por la parte de ciencia, tampoco causaría muchos cambios. Cuánto ha mejorado el rendimiento con las nuevas gráficas respecto a anteriores, me refería a CUDA y cosas de esas.
Y lo más importante da independencia. Eso es lo que Europa debería buscar. Pero para eso necesitaríamos estar más unidos.
Según las estadísticas de Steam (1), la GTX 3060 ocupa el lugar nº 11, parece que hay más GTX 3060 en equipos portátiles. ocupan la posición nº 8, la que va ganando es la GTX 2060, en el puesto nº 4.
(1) Encuesta sobre hardware y software de Steam: February 2022
Esperemos que, como dicen los "expertos" en septiembre el tema relaje, con la salida de la serie 4000, y el cambio del sistema de minado, tendremos gamers que venden su serie 3000 para pillar la 4000, mineros vendiendo sus gráficas que ya no les valen, en pales, porque no creo que las vendan una a una. Supongo que la producción aumentará eso baja el precio, por otro lado intel meterá sus nuevas gráficas, y Biden a quitado aranceles, entre ellos los que metían entre un 5 y un 25% a esta tecnología. O la diferencia entre la serie 3000 y la 4000 es muy gorda y el precio de la 4000 muy bajo, o Nvidia se va a comer muchas gráficas.
De todas formas lo que suelen fallar casi siempre no son los chips, si no toda la electrónica que va alrededor de este (fuentes, condensadores, soldaduras...). Un procesador si trabaja dentro de los rangos de voltaje y frecuencia que da el fabricante es muy extraño que se rompa, a no ser que sea un fallo en el sistema de refrigeración y aún asi tienen mecanismos para detenerse en esos casos.
Yo soy artista técnico en videojuegos, en parte me encargo de la calidad visual, no de la calidad del modelo, eso es cosa de artistas, yo hago que la tela parezca tela, y que el pelo parezca pelo etc etc.
Un ejemplo, en el 2015, para hacer el efecto de luz en el fondo marino, pillábamos 2 ó 3 imágenes de lo que llamamos causticas, (esas líneas de luz producidas por la refracción) las movíamos, las sumábamos, y 4 operaciones matemáticas y ya, daba el pego, la gente lo veía y ya, ahora se pueden hacen de verdad, o sea, tienes la maya 3d del agua animada, y solo hay que simular la física para que la luz se concentre y se deforme y que parezcan causticas, son más realistas pero seguramente no se aprecie.
Hay muchas limitaciones técnicas que suplíamos con ingenio, ahora no tenemos esas limitaciones, a nivel gráfico queda mejor, sí, se pueden hacer cosas que antes no se podían hacer, sí, es una mejora gráfica, eso depende del jugador.. Por ejemplo, cómo animamos un personaje, tenemos una malla, un modelo 3d, y un esqueleto con muchos huesos, mediante un proceso llamado "Riggeado" hacemos que ese esqueleto deforme esa malla, y es lo que veo en el juego, esa malla está compuesta por polígonos y esos polígonos tienen vértices, los huesos de ese esqueleto mueven esos vértices, antes teníamos un límite de 4 huesos por vértice, eso era que a un vértice solo le podía influir 4 huesos, y era una limitación en zonas como la cara, manos, pecho etc, ahora no tenemos ese limite, un jugador igual no se da cuenta, pero ahora cuando un personaje levanta un brazo o estira una pierna, no se ve esas guarradas como de textura estirada que antes eran muy comunes. Antes metíamos la ropa en todo es proceso, ahora mucha ropa va por encima del modelo y se anima en tiempo real con físicas, igual no te das cuenta, pero está ahí.
En FX, o sea sistemas de partículas ni te cuento los avances que hay, en 5 años, el avance ha sido tremendo.... un ejemplo que me tocó hacer, antes una bandada de pájaros era animar un montón de pájaros, hacías 3 ó 4 y los copiabas, ahora animas un pájaro, y dentro de un sistema de partículas, creas un comportamiento, que no se atraviesen, que sigan a un líder, que esquiven objetos, algo de aleatoriedad y tienes un sistema super realista de animación de pájaros por IA... que puedes usar donde te de la gana, incluso lo puede usar en gameplay para atacar… » ver todo el comentario
Por cierto, ya que hablas de hacer 2 juegos, por eso por ejemplo algunos juegos de PC no son next gen, por ejemplo el NBA2k22 o el FIFA22.
Y cierto ya hace un tiempo que unreal 5 ha salido, aún no se ha creado ningún juego con el? Es decir, que vaya a salir este año o el próximo con el nuevo Unreal. O aún el Unreal 5 no es lo suficiente maduro, aún?
Otros ejemplos: gasto público en sanidad y educación. En cambio, presupuesto de la casa Real o inversión en defensa.
Hay que prestar mucha atención a las palabras y que intención tienen.
Pero bueno ahora ha cambiado mucho la cosa, con la escasez que hay la gente se pelea por cualquier tarjeta que medio funcione.
Todo esto con pinzas, pero los rumores apuntan a que AMD ha mejorado su arquitectura y junto con un nodo de fabricación más moderno y eficiente consume bastante menos que la actual, con lo que juntando dos chips consiguen mucho rendimiento de manera muy competitiva pero sin aumentar los consumos actuales o sólo de manera anecdótica. Nvidia sin embargo, no ha conseguido disminuír ostensiblemente los consumos, así que al sumar dos chips para su próximo tope de gama, parece que efectivamente el consumo se va a disparar.
Intel, con sus gráficas que aún no han presentado (lo harán en breve), parece que estarán a la altura de la gama media-alta de la generación actual (pero no a los topes de gama de amd o nvidia), eso si, consumiendo menos y probablemente costando menos (si quieren competir es la baza que les queda, y más cuando la siguiente generación está al caer). Les queda bastante trabajo por hacer, pero las bases parece que son buenas y hay mucho margen de mejora.
Por contra, tienes unreal 4, que ha evolucionado un montón, tiene un huevo de recursos de todo tipo, más que probado, que lo controla "todo el mundo", cuyo soporte en todas las plataformas es bueno o excelente, etc. y que te da una productividad muy grande.
¿Por qué tecnología optarías?
Hasta donde yo sé, con UE5 creo que fortnite (no sé si ya lo usa o aún están portándolo) y no sé si algún proyecto más.
De nada te sirve tener un montón de silicio si las aplicaciones no pueden interoperar con él. Y la losa de soportar tecnologías modernas y pasadas para que tu gráfica funcione es muy grande.
Mucho hardware muy bueno ha pasado muy discretamente o se ha pegado grandes batacazos por su pobre soporte de drivers (muchos fabricantes de gráficas han desaparecido simplemente por eso, por no poder mover el juego X o por no soportar la librería Y, por no rendir lo que el hardware se supone que debería con el software Z...)
Fíjate que Nvidia copa el mercado en parte porque ha impuesto CUDA, que simplemente es un software muy cómodo para hacer ciertas cosas. Nada que las gráficas de la competencia no puedan hacer, pero al ser un software cerrado, los demás lo único que pueden hacer es emularlo (y por lo tanto estás perdiendo un rendimiento precioso y no puedes compararte porque sales perdiendo).
El CS:GO va con una 750TI que compré en AliExpress por 30 pavos antes de la pandemia para montar un PC pa mi sobrino para que pudiera estudiar en casa.
Esas tasas de errores los da una tienda de PC customs que es probable que hagan overclocking y eso conlleva más fallos. De todo modos si miras tasas de errores de generaciones pasadas no deben ser muy distintas.
Unreal 5 lleva años, pero aún no es todo lo estable que requiere una producción, Epic le echa una mano a ciertos estudios para sacar cosas, como lo de matrix, y así van puliendo el motor. En estos casos la prudencia de Epic me pare muy buena, tú imagina que empiezas una producción con el 5 y a los 2 ó 3 meses te das cuenta que no, que no está maduro o lo que sea, es un palo... ahora mismo Epic dice que es estable y se puede usar, pero bueno, los que trabajamos con unreal sabemos que no es del todo cierto, es estable con su código y con sus cosas, lo malo es que con su código y con sus cosas solo haces un tipo de juego, tienes que meter código a mayores y muchas más cosas, y ahí es donde suele haber problemas.
Los NBA y los FIFA son super ventas, tendrían que hacer 3 ó 4 versiones malas para que la gente no juegue, Me hace gracia porque hay padres de colegas de mi hijo de 12 años que dicen, ¡¡Fornite¡¡¡ buff qué va, yo no dejo a mi hijo jugar a eso, solo le dejo jugar al FIFA, pues el Fifa es de los juegos más aditivos que hay, además que lo ves en los chavales, iniciar a un niño en el mundo del videojuego con el fifa es como iniciar a un adolescente en el sexo, con porno dudo violento, todo un desastre, su sistema de juego es aditivo y está hecho para que cambies cada vez que sale uno nuevo, y además no guarda lo del juego anterior y tienes que volver a comprarlo todo... un desastre para un niño.
El 5 tiene un montón de cosas del 4, pero muchas, podríamos decir que es un 4 con muchos esteroides, los dos principales, y que son un antes y un después, son, Lume y Nanite.
Lume es un sistema de iluminación super realista, hasta ahí podemos decir, bueno, el 4 tiene raytrace, síp, pero para que ese RT sea realista necesitas una gráfica compatible RTX y no todo el mundo la tiene, y lume corre ¿sin problemas? en una 1060, Y personalmente he trabajado con los dos sistemas y me quedo con Lume de calle, también puedes usar raytrace con lume, pero lume solo ya es la caña.
El otro sistema importante es Nanite, hasta ahora teníamos que mantener a raya los polígonos, es cierto que ahora podemos meter 5 o 6 millones en una escena que bueno, un ordenador gama media los mueve, pero aún así hay que seguir el pipeline de modelar el objetos con millones de polis, 20 millones o lo que sea, hacer después uno de baja, 50.000 polis, y pasar la información que se pierde a un bitmap, el normal map, (supongo que lo sabes pero como hay gene que no) en unreal 5 prácticamente no hace falta ese paso, puedes meter un modelo de 10 millones de polígonos que le dará igual, lo moverá sin problema...
Si juntamos, que casi no tenemos limites con los polis, y una iluminación tremenda, el cambio es espectacular, Además de un lavado de cara a la interface, y todo lo del 4 pero funcionando sin problema, y una optimización en todo, pues le motor va a ser la caña..
cc #44
Esteroides es el 3.5 respecto al 3 o el estado actual del unreal 4 respecto al de hace dos o tres años (que se han añadido y modificado muchas cosas y muy importantes "de los alrededores" del engine).
www.hobbyconsolas.com/noticias/unreal-engine-5-llegaria-fortnite-tempo
Ah bueno, se me olvidaba, "la experiencia matrix" está hecha en UE5...
youtu.be/izpSH6LUpm4
All final lo uso para trastear y cosas administrativas.
Fue heredado, y no voy a tirarlo, lógicamente.
Lo de matrix ya lo comente antes.
He trabajado con el 5, es una pasada , empecé con unreal 3..
El estado actual del 4 personalmente creo que está muy sobre dimensionado, han metido muchas cosas, no sé si han apoyado eso con cambios internos, pero hay que ir con mucho ojo, y no me quejo de la estabilidad, en comparación con otras versiones esto casi no peta.
Pero efectivamente nadie sabe que pasara en el futuro se por puede ir todo a oa mierda, personalmente creo que es el principio de una revolución tecnológica en china en microprocesadores, no es el unico que estan desarrollando, es la primera gpu que alcanza un nivel dentro del estándar actual (muy abajo) pero estan trabajando en muchos otros microprocesadores, ya en cpu tienen el Loongson, y muchos otros en otros ámbitos.
UDK no compilaba a Ps4, y RockSteady tenía su ultimo Batman en UDK, crearon un compilador para PS4 y tooodas las herramientas que hicieron, el sistema de destrucción, el coche, la lluvia, mil movidas internas, funcionaban con ese compilador, cuando lo pasaron a PC fue un cristo, primero porque eran 4 programadores y segundo porque todo estaba hecho para que funcionase con ese compilador, por eso, la versión de PC iba tan mal incluso en PCs potentes, se retiró el juego a las pocas semanas de salir en PC.
De nada sirve hacer juegos si después no los vendes porque los clientes no tienen hardware para moverlos.
Pues si y no. Puede que si estás desarrollando un juego y tienes acceso a una de esas nuevas, flamantes y escasas gráficas de un actor nuevo en el mercado puedas preocuparte de darle soporte.
Pero ¿y los miles de desarrollos que no tienen esa suerte? ¿y los cientos de miles de juegos ya hechos? unos buenos drivers marcan la diferencia. Si te compras una gráfica y te pegas meses o incluso años en tener unos drivers adecuados que te dejan jugar a unos juegos pero te dan problemas con muchísimos otros... no vuelves a comprar esa marca. ¿Y siendo esa empresa que saca gráficas nuevas, dónde vas a poner tu esfuerzo? ¿en arreglar problemas con juegos ya hechos o apoyando desarrollos nuevos y flamantes para que tu equipo de mercadotecnia venda lo bien que funciona en tus gráficas ese que acaba de salir al mercado y tan deseado por todos?
Igualmente, el mercado de juegos sólo es un mercado entre tantos. Está el de diseño (a nivel industrial hay incluso más requisitos y más duros que cumplir), el científico, el del mercado de procesado de imagen y vídeo (transcodificación, trabajo con grandes cuadros de imagen, compresión de calidad, etc), el procesado de redes neuronales/lo que llamamos IA... que puede que haya productos más enfocados a cada nicho, pero las gráficas son soluciones tan versátiles y potentes... e intel realmente más que el mercado de juegos, se metió y apostó fuerte para conseguir esos otros mercados.