edición general
271 meneos
5171 clics
La supercomputación ya sufre los efectos del fin de la ley de Moore (MIT Technology Review)

La supercomputación ya sufre los efectos del fin de la ley de Moore (MIT Technology Review)

Es imposible seguir encogiendo los chips al ritmo de antes, así que la industria necesita encontrar otras vías de mejorar la potencia computacional, que llegará a afectar a los smartphones en unos años.Dentro de un par de años, puede que las empresas tecnológicas tengan que trabajar mucho más duro para proporcionarnos nuevos casos de uso para los ordenadores. La continua acumulación de cada vez más transistores de silicio en los chips, conocida como la ley de Moore, ha sido la materia prima de la exhuberante innovación en la computación.

| etiquetas: ley moore , supercomputación , informática
Comentarios destacados:                    
#7 #2 #3 #4 Aunque suene a palabra corriente y moliente, como indica #6 "supercomputación" define algo muy preciso que no está exactamente relacionado con el número de frames por segundo que pueda sacar un móvil en el Angry Birds
es.wikipedia.org/wiki/Supercomputadora
Las 100 primeras instalaciones de HPC del mundo tienen del orden de 100.000 cores cada una (el top 1 tiene 3 millones). Los deseos de unos pocos millones de usuarios de smartphones no es lo determinante para la evolución de la capacidad de cálculo, pues aquí hay una fuerte demanda y la ley de Moore viene determinada por la tecnología actual de fabricación, que como el artículo cuenta, en los móviles está muy por debajo del límite (básicamente porque están diseñados para no tener que utilizar refrigeración).

Donde yo trabajo tenemos un cluster para simulaciones de unos pocos miles de cores que sólo en consumo eléctrico y de aire acondicionado se lleva algunos cientos de miles de euros al año, así que cualquier mejora de rendimiento de un año para otro es bien recibida (ya sea aumentando los FLOP/€ de los cores o reduciendo los W/FLOP, que a igualdad de presupuesto conduce a aumentar la potencia de cálculo ampliando el cluster)
  1. Ahora entiendo lo de los móviles cada día más tochos jijiji
  2. jajaja,yo sigo pensando lo mismo que hace años, exceptuando para algunas cosas que requieres mas potencia, el resto de tareas realizadas con un PC no necesitan de tantísima potencia, pero claro la aparición de sistemas mierder, que requieren altísimos consumos de CPU y memoria nos ha obligado a ir renovando la tecnología. Cuando se estanque y evolucione a menor ritmo, no les quedará mas cojones que hacer las cosas mejor.... o quizás nos metan mas mierda quien sabe....
    No necesito que mi móvil tenga 3569 procesadores , si no que le dure la batería y que sea fácil de usar...
  3. #3 Cierto. Cuando sea muy costoso aumentar la potencia bruta de procesamiento la industria tendra que seguir el camino de la optimizacion. O que llegue una revolucion al estilo de #1
  4. #1 Y ya puestos ¿Pa'qué pararse en 10 y no tirar con 12 o 16 o 20?

    Fdo. Uno que no tiene ni puta idea. :-D
  5. #4 Son dos "ligas" distintas creo, la supercomputación y los dispositivos de consumo. Obviamente en la supercomputación no hay Sistemas operativos "mierder" como dicen por aquí aunque supongo que siempre se puede avanzar en software eficiente que no necesariamente requiera mayor potencia de proceso sinó menor.
  6. #2 #3 #4 Aunque suene a palabra corriente y moliente, como indica #6 "supercomputación" define algo muy preciso que no está exactamente relacionado con el número de frames por segundo que pueda sacar un móvil en el Angry Birds
    es.wikipedia.org/wiki/Supercomputadora
    Las 100 primeras instalaciones de HPC del mundo tienen del orden de 100.000 cores cada una (el top 1 tiene 3 millones). Los deseos de unos pocos millones de usuarios de smartphones no es lo determinante para la evolución de la capacidad de cálculo, pues aquí hay una fuerte demanda y la ley de Moore viene determinada por la tecnología actual de fabricación, que como el artículo cuenta, en los móviles está muy por debajo del límite (básicamente porque están diseñados para no tener que utilizar refrigeración).

    Donde yo trabajo tenemos un cluster para simulaciones de unos pocos miles de cores que sólo en consumo eléctrico y de aire acondicionado se lleva algunos cientos de miles de euros al año, así que cualquier mejora de rendimiento de un año para otro es bien recibida (ya sea aumentando los FLOP/€ de los cores o reduciendo los W/FLOP, que a igualdad de presupuesto conduce a aumentar la potencia de cálculo ampliando el cluster)
  7. #7 tu lo de entender cuando alguien hace una broma ya tal..
  8. #8 Era por informar a varios por si alguien pueda tener interés ya que los comentarios se estaban centrando en los móviles.
    Tú lo de entender cuando alguien entiende una broma pero no la sigue sino que da algo más de información ya tal :troll:
  9. Que pena, ya no podremos seguir escribiendo código cada vez menos optimizado. :-(
  10. #1: ¿Y si lo ponemos bien, con exclamación de apertura? ¡9! #troll

    En la Rusia soviética intentaron un sistema de ¡3! valores: -1, 0 y 1. :-P
  11. #13: Vaya, es cierto. ¿Por qué ventanilla debo recoger mi #pwned? xD
  12. #9 cualquier excusa es buena pa soltar el rollo
  13. #15 Lo mismo que cualquier excusa es buena para decir por las bravas que alguien no entiende una broma y ya tal
  14. Si no te va con una CPU mete otra hasta que la cosa vaya como toca. Si algo nos ha enseñado java, nodejs y demás es que los problemas se solucionan echando más hardware al problema y tan contentos oiga
  15. Vaya, esta es como la décima vez que la Ley de Moore se queda obsoleta :troll:
  16. La cuestión es, ¿hace falta seguir mejorando la potencia de supercomputación y de la computación para uso doméstico? ¿Neceistamos móviles y portátiles con 384000 nucleos de procesamiento? El estancamiento se veía venir, intel ya lo estaba demostrando en sus familias de procesadores (que casualmente se centraron más en aumentar el ahorro energético que en más potencia bruta).

    Y para un centro de supercomputación, meter más equipos para aumentar la potencia de procesamiento no es un enorme problema. El problema estaría en que para meter más potencia en un móvil, el móvil debería ser más grande, y nadie necesita hoy por hoy tener 18 nucleos en un móvil, ni ahora ni nunca. Van a tener que innovar por otro lado.
  17. Con empezar a usar arquitectuea nueva y no el 30 años de parche de Intel la cosa solo por quitarse lastre ya avanzaba, sino mirad ARM
  18. ¿exhuberante? :palm: :wall:
  19. #1 No se si lo has dicho en serio, o es una coña, pero la computación cuántica no funciona así. Según lo que estudié hace algún tiempo, y si no recuerdo mal, de momento hay una manera de enviar de una sola tacada el doble de información (el equivalente a 2 bits) usando el fenómeno del entrelazamiento cuántico. No es tan fácil como usar "varios estados", puesto que estos varios estados (que no son varios, en todo caso son infinitos) no son deterministas y su uso depende más bien de los observadores y sus ejes.

    Es una tecnología demasiado verde y, por desgracia, los "divulgadores" a veces cometen tantas imprecisiones que hacen creer a la gente cosas que no son. La computación cuántica servirá para realizar algoritmos con un nivel menor de complejidad al que corresponde con el uso de la computación clásica. Pero esos algoritmos, muchos tienen que ser descubiertos, y ya veremos cuántos de ellos se usarán a nivel doméstico (de forma directa).
  20. #21 Como que no los últimos procesos de 16nm han permitido ver gpus a 2ghz en cpu's 4ghz sin que se disparen las temperaturas.
  21. Tranquilos, IBM ya tiene prototipos de procesadores de grafeno a 0.5 THz
  22. #16 sorry x el negatifo :-(
  23. #13 Joer, ¿a ti te enseñaron factoriales en EGB? ¿Y se les olvidó decirte que es notación y no anotación? Las cosas cambian que es una barbaridad. :troll: :troll:
  24. #23 El problema no es la resolución, sino el espacio entre pixels, al tener la pantalla pegada a los ojos, con una lente que aumenta los pixels, se distingue el espacio entre ellos y pierde un poco el "realismo"
  25. Llevo desde mediados de los noventa leyendo la misma noticia cada tres o cuatro años.
  26. #32 No problem bro.
  27. Ahora los procesadores evolucionan en la dirección del rendimiento energético mas que la potencia de cálculo.
    Aunque Moore solo hablaba de número de transistores.
  28. mientras tanto:  media
  29. "Probablemente el móvil tiene un margen de una o dos generaciones", sugiere Wenisch.

    Es decir, dos años :troll:
  30. Cortos de miras todos aquellos que dicen eso de un PC doméstico / móvil no necesitan más potencia. Yo quiero mi propia singularidad tecnológica.
  31. #13 Creo que es "notación", sin la "a".

    dle.rae.es/?id=Qe0rxfE

    Vale no había leído a #29 y tu explicación en #32
  32. #40 Ya, lo estaba editando justo antes de llegar tu comentario.
    :->
  33. #1 Andas un poco liado, si tienes 300k estados se supone que la representación distinta de cada uno de esos estados es más "costosa" de interpretar o comunicar. De hecho creo recordar que la base numérica optima era el número e (2.7...) más próximo al binario que por ejemplo al decimal.
  34. Los transistores no se pueden hacer más pequeños pero, pregunta de lego: ¿Qué impide hacer los chips más grandes? Poco me importa si el chip de mi ordenador mide 3x3 cms. o 7x7. En un móvil vale, pero tampoco es que el tamaño del chip sea mucho en relación al del trasto.
    ¿?
  35. #43 No se trata del tamaño de los chips, se trata de la distancia entre transistores.

    Si tienes transistores que ocupan menos espacio la electricidad tiene que viajar distancias mas pequeñas con lo que la eficiencia aumenta, cuando se trata de eso, de poco sirve hacer chips mas grandes.
  36. #45 lo pillo. Muchas gracias, en serio... me parecía curioso, y ya había dicho que era un lego en el tema :-)
  37. Creo que está entrando fuerte un cambio de paradigma. La potencia máxima que vamos a necesitar en nuestro equipo personal es la mínima para mostrar en pantalla nuestro sistema.

    ¿A qué me refiero? A qué bastará con que tengamos una conexión a internet de baja latencia y con el suficiente ancho de banda como para enviar lo que necesitamos ver en el monitor (fullhd, 4k ...) porque el proceso puede darse en superservidores remotos. Y ahí hay mucha más facilidad para crecer en potencia. El ancho de banda ya la tenemos de sobra (se puede ver netflix en 4k con una conexión desde 15mb), falta mejorar la latencia. Pero estoy convencido que hacía ahí apunta el futuro del "procesador" ...
  38. #1 Necesitamos realmente tanta capacidad?
  39. #44 Intuitivamente es que si tienes muchos posibles valores como base numérica te salen números con menos cifras, pero tienes que manejar un mayor número de símbolos . El más eficiente seria en el que el producto de la longitud por el de símbolos (base) fuera menor, y eso se consigue con el número e (aunque en la práctica al no ser un número entero no resultaria sencillo de utilizar).

    Aqui lo explican más formalmente: www.i-ciencias.com/pregunta/11528/cual-es-el-mas-eficiente-sistema-num
  40. #1 La computacion cuantica solo añade un estado mas no 0 1 2 3 4 5 6 7 8 9 ahi te has equivocado futuro economista :-P
  41. #49 mmm... yo propondría hacer un alto en el camino, arreglaría un poco el mundo, y luego a la VR y al resto. No tiene sentido alguno seguir creciendo sin control.
  42. #52 Eso es solo teoria sin demostrar, lo que se ha demostrado hasta ahora y se a conseguido hacer funcionar en laboratorio son 3 estados, osea uno mas que el actual que ya de por si multiplica muchisimo las combinaciones. A ver si resulta que yo sin buscar nada en internet se mas que tu listillo de google.


    Fdo: Un informatico exiliado en UK
  43. #36 Las GPUs tienen un rendimiento FLOP/W mucho mas alto que una CPU (lo que las hace perfectas para computación), y a diferencia de las CPUs los gráficos es un workload totalmente paralelo ya que dibujar un pixel(i,j) es totalmente independiente de dibujar el pixel (i+1,j) con lo que para incrementar el rendimiento solo tienen que duplicar las unidades de cómputo y ya esta (sin pasarse en consumo). Lo mismo pasa con CUDA, donde el framework es escalable.

    Y mientras en el mundo de la CPU... {0x1f422}{0x1f422}
  44. #43 #45 Es una combinación de varios factores:

    - Fabricar chips con mayor area es mas costoso (debido a que el tamaño de una oblea es fijo, si tienes chips con mas area, salen menos chips por oblea, con lo que cada chip es mas caro) $$ --> productos mas caros
    - Problemas de disipación W/cm^2 Si el chip crece mucho puede ser difícil enfriarlo
    - Mayores distancias a atravesar -> mayores latencias -> tiempo de ciclo menor --> frecuencia menor (aunque esto se puede solucionar haciendo el core pequeño y replicandolo metiendo varios)

    PD: Un programa puede estar limitado por capacidad de computo o por ancho de memoria. Y debido a un factor histórico llamado el "Memory Wall" donde la diferencia en rendimiento entre la DRAM y la CPU es cada año mayor, cada vez es menos importante tener una buena CPU, y más, tener una buena jerarquia de memoria.
  45. #43 El tamaño del chip es un factor clave en el diseño desde diferentes puntos de vista. Primero el económico, cuanto mas grande sea el chip menos piezas sacas por oblea, por tanto más caro le resulta a la empresa que los diseña (que muchas veces es diferente a la empresa que los fabrica). Además el empaquetado se vuelve mas caro ,etc. Luego está el diseño , si tenemos chips muy grandes se disipará más potencia, lo cual hace que se caliente el dispositivo y tenemos efectos de electromigración entre otros, lo cual no es lo mas optimo porque al final el chip acabará "quemándose" o no funcionando como nosotros queremos. Como bien dice #45 , intentamos poner los transistores lo más cerca unos de los otros, así podemos aumentar la frecuencia de funcionamiento, además intentamos que no hayan retrasos significativos entre señales de los mismos bloques (ROMs,RAMs,registros,etc.)- imaginate que en un bus de acceso a una memoria las señales no llegan al mismo tiempo , esto hará que la memoria no funcione. A estos niveles tan pequeños los "cablecillos" que utilizamos para unir los transistores varían sus propiedades físicas (resistencia y capacidad) con la longitud y anchura del mismo, haciendo más difícil la ecualización de las señales que viajan dentro del chip. Por tanto nos gusta tenerlo todo bien juntito :-)

    No se si ve algo en la imagen qeu subo , pero esto es un chip en el que estamos trabajando ahora mismo son aproximadamente 4x4mm . Y cada rectangulo es una memoria. Es mas o menos para que te hagas una idea de lo que hay dentro de estos bichos.  media
  46. #54 nunca me olvido de lo que vivieron nuestros abuelos ni me olvido de lo que está viviendo actualmente más de la mitad de la población mundial.

    Crecer en si no es un problema. No solamente se puede crecer materialmente. El problema es cuando se crece en detrimento de los más desfavorecidos, como suele ocurrir.
  47. #47 Eso ya está ocurriendo mas o menos con el auge de las aplicaciones web vs las aplicaciones nativas.
    No obstante podría significar un paso mas hacía la perdida de privacidad. (Bueno siempre queda la posibilidad de que los superservidores remotos sean de tu propiedad, y solo tu puedas acceder a ellos)
  48. #20 Hombre ARM no empezó precisamente ayer es.wikipedia.org/wiki/Arquitectura_ARM#Historia , si hubiera triunfado en los equipos personales en lugar de la arquitectura X86(estamos hablando del 83, en esa época hubiera sido factible) a saber que monstruosidades nos podríamos encontrar en la actual arquitectura arm para sostener la retrocompatibilidad o aumentar la potencia según tus usuarios requerían.
    ARM no es la panacea si no que se oriento de otra forma y ahora ha llegado un momento en el que gracias a los smartphones y las inversiones que se están haciendo esta convergiendo en potencia y usabilidad con la infraestructura X86, pero en gran parte es culpa de intel el principal fabricante de esta estructura que ha orientado su fabriación a meter núcleos y potencia y a ignorado la cuota de mercado que estaba tomando ARM, hasta que ha llegado al punto donde ha fabricantes chinos que te hacen un SoC basado en ARM totalmente factible para multiproposito por un tercio de le que vale un procesador X86 básico. Aquí la cuestión ademas del consumo ha sido el precio que es increiblemente económico.
  49. #47 Entonces según tu, el futuro es volver atrás, cuando solo se disponía de un terminal y te conectabas al mainframe para ejecutar lo que deseabas. Hacer lo que dices te convierte en dependiente de la nube y de 3 o 4 monopolios a nivel mundial. Además tu terminal tendría un tiempo de vida util impuesta por el mercado, si mañana dijeran todos los sistemas de procesamiento que necesitan unos terminales con mas potencia o mayor resolución tendrías que cambiar el dispositivo si o si. Además de la privacidad, tendrías que enviar los datos en crudo para que te los devuelvan procesados.
    Vamos el sueño el espionaje industrial o de los grande monopolios donde tu posible competencia te daría sus datos para que los compilaras o procesaras.....
  50. #3 ¡Como los iPhone!
  51. Precisamente (www.linkedin.com/pulse/el-futuro-está-en-la-nube-jordi-figueras-casas), un tema interesante. Sobre todo porque habrá que ver el posicionamiento de las grandes corporaciones al respecto. Pienso como #47.
  52. ¿¿Y el grafeno, es que nadie piensa en el grafeno?? Menéame, no te reconozco. :-|
  53. #23 Si, las gafas de "realidad" virtual estan tan lejos de conseguir acercarse a la realidad como el 3D de los cines para la gente que usamos gafas. Pero bueno, siempre estará el gaming que las comprará junto a su gráfica de 1200 €, y dirá que son una pasada.
  54. #21 Bueno, los GHz no se pueden subir más por tema de temperatura, para pasar de 4 GHz necesitas refrigeración líquida u otro sistema de refrigeración sofisticado que es económicamente inviable. En ese punto llegaron los núcleos, ya que si no puedes meter 1 procesador de 8 GHz, pues metemos 4 nucleos a 3 GHz (p.ej.) y algo se le acercará en rendimiento. Y como dice #25 ahora incorporan GPUs con frecuencias elevadas sin disparar la temperatura, tener la gráfica integrada por defecto fue una gran mejora para los que no exigían muchos recursos gráficos.

    En fin, los fabricantes de procesadores han sabido mejorarlos y mucho, y entre otras cosas gracias a la ley de Moore, pero el chollo se acaba y en el futuro van a tener que buscar otras maneras de aumentar rendimiento. Pero contradiciendo un poco al artículo, no se acaba el mundo ni van a dejar de fabricar procesadores, simplemente se estancan ligeramente. Como dice el refrán, "todo lo que sube, baja".
  55. #1 no se usan mas valores, porque al ser uno de ellos apagado, es dificil de confundir entre el 0 y el 1, pero si pones varios, cada uno con diferentes valores de vatios, es fácil que se confundan entre ellos.
  56. #29 Pues yo tenía una profe de la optativa "Informática" y nos enseñó a programar, y ahí aprendí lo que era un factorial, en 2o ESO. Luego ya no lo he visto nunca, y eso que hice el bachiller científico y estudio Finanzas.
  57. A ver si con un poco de suerte atacan el problema de la velocidad de lectura del disco duro y entrada salida que suene ser el cuello botella.

    Y siempre nos queda la esperanza de la Computación cuántica aunque esté un poco verde
  58. #63 No digo que sea la panacea, pero es la tendencia, y si la mayoría del mundo ha ignorado lo denunciado por Snowden siendo tan grave, la verdad es que no dudo que se impondrá.
  59. #72 Es que eso es lo que "algunos" están intentando vender desde hace ya unos cuantos años, en españa los mas famosos son los "paquitos" de AOL que fueron lanzados sobre los 2000. Fallo por que tanto el terminal como las conexiones de la eran una mierda pinchada en un palo. Recuerdo (tal cual venia de fábrica) lo limitado que estaba y que todo iba por AOL y que durante los 2 primeros años no lo podías "tunear" por que invalidaba la garantía.
    De las peores experiencias con un equipo informático de mi vida, volver a eso o a algo parecido sería convertirse en la "putita" del proveedor.
    Llevan muchos años intentándolo, cuando lo consigan mejor apagar e irse, lo que creían que microsoft o google hacía monopolio lo fliparian.
  60. #73 conocí el Internet de AOL y coincido contigo. Frustrante.
  61. #74 En mi caso lo contrato un amigo, pero en esa época yo era el "amigo informatico" por lo que me toco configurarselo. Al final conseguimos invalidar el contrato por que era incapaz de conectarse, de media hora a una hora para conectarse y luego constantes caídas(supongo que la instalación del cobre también afecto que era del año de matusalen). A los 2 meses le conseguí un pentium 166 mmx con 32mb de ram y un modem interno de segunda mano y poco mas que alucino, tuve que tocarle un poco la tolerancia a fallos del modem para que funcionara fluido pero conseguimos conexiones a la primera e incluso descargas a cierta velocidad, incluso en aquella época le instale mame y alucino con los juegos.
    Aquí sigo viendo a los "paquitos" en ciertas autoescuelas que los debieron comprar a un precio ridiculo y aprovecharon para "informatizar".
  62. #1 los rusos ya lo intentaron usando un sistema ternario, en la época de antes de los transistores y el silicio.
    Dudo mucho que se pueda hacer con silicio, solo puede ser hay señal o no, no se pueden ni medir ni regular los voltajes dentro de un chip es un 0 o es un uno, no hay más mientras usemos silico
  63. #50 te pregunto desde la ignorancia
    ¿no se supone que cuanto mayor es la base, es decir mas simbolos usamos, la representacion ocuparìa menos espacio porque utilizariamos menos cifras(o digitos no se si esta bien dicho aqui)
    por ejemplo un numero en hexadecimal siempre se representara con menos simbolos (cifras) que en binario.
  64. #18 la última vez empezaron a meter núcleos a los procesadores. ahora que quiten la fpu pa ahorrar espacio
  65. #21 lo de los nucleos fue porque no pueden pasar de 4-5 ghz facilmente. toparon con el calor y la inestabilidad pero siguieron aumentando el numero de transistores igualmente ahora lo que parece pasar es que si no consiguen bajar el nivel de integración en los chips no podrán meter más núcleos en el mismo tamaño.
  66. #25 los 3,8 ghz los daba el pentium 4, un aumento del 10% en el mejor de los casos en 8 años. si a ti eso te parece que las velocidades de reloj no se han estancado...
    como dice #21 han metido más núcleos y tambien se ha mejorado el rendimiento por ciclo. y lo que tu dices del calor no es en todas las cpus solo en las pensadas para ello, las de gama alta siguen siendo cafeteras que consumen como un pentium 4
  67. #68 yo me apuesto a que muchas cosas que se han ido intengrando en la cpu que antes estaban fuera como controladores de memoria, la fpu, y últimamente la gpu tendrán que ir saliendo para dejar sitio.
  68. #20 eso no tiene que ver con la ley de moore que habla de numero de transistores y velocidades de reloj.

    De todas formas , y mira que yo siempre eche pestes de x86 por gastar recursos en mantener la compatibilidad, hoy día ya da igual
    la arquitectura x86 ya no existe como tal en los chips solo es traducida internamente es como un risc, no se desaprovecha espacio para instrucciones complejas rara vez usadas estas son emuladas(o mas bien desglosadas) por un microcontrolador en el propio chip. yo miro a intel y arm y veo que arm lo único que ha ganado es cuota de mercado, en rendimiento intel ha avanzado muchisimo mas. Un acorn con arm daba vueltas en circulo sobre un pc x86 en los 90, hoy un pc con arm sería mas lento que un x86 de esto se deduce que en rendimiento puro los x86 han avanzado mucho mas que los arm.
  69. #80 No se han estancado solo es una apariencia de ello el ipc por núcleo es la prueba de ello aparte de buses y caches mas rápidas.
    En gpu este ultimo salto a sido brutal 1Ghz a 2 Ghz.
  70. #82 Si es relevante porque hay margen de mejora lo que da tiempo a seguir evolucionando en ese margen y no en la minituarización
  71. #11 La lógica borrosa lleva inventada cincuenta años.
  72. #81 Puede, pero si salen para dejar sitio siempre habrá que ubicarlos en otra parte de la placa, y al final estamos en las mismas, porque si la cuestión solo se centra en miniaturizar, ¿por que no fabrican procesadores del doble de tamaño con los mismos nanómetros? Total si se trata de espacio, con la miniaturización que han sufrido las placas en estas última décadas, sacrificar unos centímetros más a cambio de más procesador no debería ser un problema, ¿no?
  73. estoy hablando del reloj de la cpu no los buses ni las gpus y aún asi si se han estancado que mas prueba quieres si antes cada 36 meses se duplicaba la velocidad de reloj y ahora en 8 años no hemos pasado de los 4 ghz
  74. #86 estaremos como antes, antes la fpu era un chip aparte y podria volver a serlo, lo mismo para las gpus. Si quieres una fpu tendras que pagarla, esto lo digo en el caso de que ya no puedan seguir bajando la integracion que es algo que cojo con pinzas.
  75. #84 pues hoy dia x86 no tiene rival en precio /rendimiento. todos los super procesasores risc DEC/Alpha etc han pasado a segundo plano o desaparecido directamente.
  76. #89 ARM es RISC... La idea sería volver a hacer un CISC de cero como fue el Itanium en su dia, que además era nativo a 64 BITs. Claro, volver a re-compilarlo todo para eso, difícil, pero vamos, hay margen.
  77. #77 Claro, pero no siempre el código más eficiente es el más corto. El tener muchos simbolos va añadiendo más dificultad.

    Te pongo un ejemplo fuera de las matemáticas, ¿que te parece más eficiente la escritura occidental donde las palabras se forman con un número limitado de símbolos (las letras del abecedario) o la escritura kanji japonesa donde casi cada palabra se representa con un símbolo distinto? Seguramente los mensajes sean más cortos en japonés, pero tienen tal cantidad de símbolos y tienen que ser tan complejos que lo hacen menos eficiente.
  78. #90 y ARM es irrelevante cuando hablamos de "superprocesadores". La epoca en que risc le sacaba los colores a los x86 paso hace mucho, es a eso a lo que me refiero.
    Además la distincion cisc , risc ya está obsoleta. El powerpc era un risc de nombre con la cantidad de instrucciones que le fueron añadiendo se alejo de la filosofia risc. Y los cisc como tal ya no existen desde que amd y despues intel comenzaron a decodificar las instruciones cisc en risc en sus procesadores.
  79. #92 Cuéntame más :roll:
comentarios cerrados

menéame