edición general
173 meneos
4112 clics
Si quisiera fabricar un PC a día de hoy, escogería RISC-V

Si quisiera fabricar un PC a día de hoy, escogería RISC-V

El futuro de los PCs es cada vez más incierto, y es que mientras que la arquitectura x86 ha ralentizado sus avances, ARM ya se ha postulado como un serio candidato, por no hablar de RISC-V, que es que la que menos ruido hace pese a la que parece ser la futura ganadora.

| etiquetas: futuro , arquitectura pc
  1. Espero que no sea como el Beta VS VHS
  2. #1 Peor sería VHS vs 2000
  3. Para pasado mañana puede. Para mañana lo más probable es que no. Y para hoy en día, ni de coña.

    Ni la arquitectura, ni las herramientas están a la altura necesaria para poner a Risc-V por encima de otras arquitecturas, salvo casos y cosas muy muy puntuales no vale la pena actualmente y a corto plazo en el futuro tampoco. Eso no quita que sea muy jugosa para invertir y desarrollarla y que si que tenga mucho futuro.

    Insluso si lees el artículo lo deja claro: es la más fácil con la que trabajar desde cero desde el punto de vista del ingeniero de hardware, no la mejor, no la más práctica y ya si nos pasamos al punto de vista del software... (y sin software, el mejor hardware no sirve para nada).
  4. No entiendo porque Apple, teniendo todo el dinero del mundo no hace su propio procesador desde cero, si su filosofía es tener su propio ecosistema, no se porque se me viene a la mente Xerox y BSD
  5. #1 en la que salimos perdiendo los consumidores europeos por que eligieron las empresas, cosa más difícil hoy día.
  6. Nos ha jodido, y un X86-64 sin todas las dependencias de hace 40 años necesarias para la retrocompatiblidad seria mucho mas rapido y eficiente.

    El problema es la compatibilidad con todo el software que hay hoy en dia y el hecho de dejar tirados a los usuarios, como hizo Apple cuando paso de RISC a X86, o con Catalina que se pela cualquier app que no sea de 64bits.
  7. A dia de hoy, salvo que seas AMD, Apple, intel o alguna de esas, como tengas que limitarte a las implementaciones de referencia de esa u otras, no esperes mucho rendimiento por watt. Y claro que el ISA no marca eso, pero es que el funcionamiento interno si, y si coges algo que no sea de dos o tres fabricantes... vas a crear algo mas o menos usable pero a medio camino de ser mas un juguete que un PC.
  8. si se desarrollara bien el software no haría falta tanto procesador.... siempre vamos al límite. el acrobat reader (por poner un ejemplo) lleva tardando un minuto en abrir desde el primer pentium que tuve y las funcionalidades son las mismas
  9. #4 Haré mi propio procesador. ¡Con casinos! ¡Y furcias!

    Ya lo están haciendo:

    es.wikipedia.org/wiki/Apple_M1
  10. #3 No entiendo lo del software. Basta con recompilar a la nueva arquitectura. A Apple pasar el ecosistema de x86_64 a ARM, incluso con terceros, le ha costado unos meses.
  11. #4 Porque da más dinero usar la arquitectura de otros. No se pueden poner a diseñar cada componente desde cero. Creo que la gente tiene un poco endiosada a Apple. No se os olvide que lo más importante en Apple es su departamento de marketing.

    #9 Basado en la arquitectura de otros.
  12. #9 m1 es ARM
  13. #7 Habana, Graphcore, Google o Amazon con el Trainium tiene juguetes con sus ISAs, y precisamente por rendimiento.
  14. #2 No entiendo la referencia a 2000. Que es 2000?
  15. #12 Eso es como decir que Intel y AMD es x86, es exactamente lo mismo

    Apple ha diseñado hasta su propio socket pero bueno, como dice #11 es solo marketing y nunca han innovado en nada, en fin...
  16. #10 ni de broma. Apple lleva años planeando el cambio a ARM. Solo tienes que ver como hay muchísimas aplicaciones que no funcionan nativamente todavia en osx, utilizan un interprete (como proton para linux).
    No es recompilar, es cambiar el juego de instrucciones completamente, lo que viene siendo rehacer los programas vamos jeje
  17. #14 es.m.wikipedia.org/wiki/Video_2000
    Aún no eres demasiado viejuno, jajaja.
    Fue el intento de competencia al Betamax y al VHS, pero no se comió un colín..
  18. #13 Desconozco la mitad de esas, pero es que el ISA, que marca un poco la compactacion/uso de memoria y hace mas o menos simple la decodificacion y los compiladores, si, no te va a marcar mucho el rendimiento. Pero si tiras de reference implementations de un RISC-V u otras cosas por ahi, sin ir a diseños mas brutos de, no se, no mas de 10 empresas en el mundo, no creo que puedas tener un buen performance per watt. Que igual sigue sirviendo, como sirven muchas cosas, pero no creo que sea un PC "apetecible".
  19. No, Jim Keller no va a pasar los Exynos a la arquitectura RISC-V, tampoco Apple se lo va a plantear a corto/medio plazo, están en plena migración con ARM y va a durar años... Los movimientos que se ven parecen más bien amagos ante la próxima autorización de la compra de ARM por Nvidia, si es que es autorizada. Que Apple busque alternativas no significa que hallan tomado ninguna decisión.

    Los movimientos de impulso de la arquitectura RISC-V vienen de China y parece ser que también vendrán de Europa, es a nivel gubernamental no empresarial. Lo de Europa es más bien una cosa desesperada ante la total dependencia de fuera, en cambio lo de China sí es para tenerlo en consideración, lo tienen todo para dar la vuelta al mercado (con o sin el mercado EEUU donde serán paulatinamente baneados)
  20. #15 es que no es x86? En su gama de procesadores claro
  21. Sólo apuntar ésto: "Linus Torvalds carga contra Intel: «Espero que AVX512 tenga una muerte dolorosa» - www.muylinux.com/2020/07/13/linus-torvalds-contra-intel/
  22. #17 No lo conocía. Pensaba que sólo había betamaz y VHS.
  23. #15 Yo no he dicho que solo sea marketing. Solo que es lo más importante de esa empresa. De hecho el m1 es lo primero que saca Apple en décadas que de verdad ofrece algo más que la competencia a la que dobla en precio.
  24. Es un desastre todo. Cada uno defendiendo lo que le apetece, arm no deja de ser risc (esta es mi defensa jeje)…y al final, parece que dependemos más de poder poner más transistores por cm2 que la arquitectura en sí
  25. #9 No es desde cero, han cogido una arquitectura ya existente ARM, (sí, llevándola a un nivel sin precedentes) y ahora se han dado cuenta que ser el mejor con tecnología de otros no basta cuando esta puede cambiar de dueños de no mucho de su agrado el día menos pensado.

    Edit: perdón #11 y #12 he ido con retardo en mi comentario.
  26. #23 Vamos a ver, M1 es para ordenadores de sobremesa y portátiles, los Ax son los procesadores para móviles y tablets, y lleva más de 10 años con su propios diseños en procesadores y tarjetas gráficas, así que eso que es lo primero que saca Apple en décadas, pues como que vas un poco descaminado
  27. #14 Jajaja, un adolescente tecnológico :troll:

    El 2000 fue el pagafantas del vídeo. Mala calidad, pero cintas de doble cara que duraban horas, ...

    ... ejem, yo tenía cintas de 240 minutos en VHS.

    Y por cierto, cuando entré en 1995 en un estudio de vídeo, y me pusieron cintas U-Matic en un reproductor de tropecientos cabezales, supe que ni VHS ni Betamax estaban preparados para lo que venía. Más modernos, pero una calidad de mierda.
  28. #8 Hay otros visores mucho más ligeros, como este es.m.wikipedia.org/wiki/Sumatra_PDF
  29. #26 ¿Tu lees los comentarios enteros?
    "lo primero que saca Apple en décadas que de verdad ofrece algo más que la competencia a la que dobla en precio"

    Eso es distinto que decir que es lo primero que saca Apple.

    Apple lleva... desde siempre... con su propio ecosistema, entre otras cosas, porque hacerse mínimamente compatible con cualquier otro sistema les jodería esa sensación de exclusividad en la que se basa su marketing.

    En los dos últimos comentarios me has discutido algo que no he dicho... a ver en este. :-S
  30. Si quisieras fabricar un PC a dia de hoy, escogerías un X86/64; si por el contrario quisieras fabricar un ordenador, podrías escoger RISC-V, ARM, o cualquier otra mierda.
  31. #8 no me creo que te tarde 1 minuto en un ordenador moderno
  32. #27 No tan adolescente. Pero la verdad que no me acordaba para nada. Tenía un amigo que su padre tenía BETA y decía que era lo mejor (sobre todo porque era aficionado al vídeo). Así, que vi ambos formatos.

    Pero el vídeo 2000 no lo había escuchado.
  33. ¿Volvemos a apostar por arquitecturas risc? ¿Como los powerPC de los 2000?
  34. #10 Meses, pero aplicando el know how de 2 migraciones de arquitectura (Motorola -> PowerPC -> Intel), recuerda que el invento de Rosetta fue el que usaron en la segunda.
  35. ira para largo te comprarias un pc nuevo se quedaria obsoleto y todavia latecnologia RISC-V estaria todavia por consolidarse
  36. #6 Yo quiero seguir usando CP/M en mi Ryzen 9 >:-(
  37. #5 creo que el porno eligió no ? O esto fue con el bluray vs dvdHD ?
    Tambien recuerdo la guerra dvd-R y dvd-R (almenos en grabación)
  38. Muy interesante, sí
  39. #32 Pues espera a oir hablar del LaserDisc... en.wikipedia.org/wiki/LaserDisc
  40. #39 Lo conozco. Solo no conocía el 2000. Porque debió super minoritario y mi memoria lo ha borrado.

    Seguro que dentro de unos meses lo volvéis a mencionar y no me volveré a acordar.
  41. #29 Realmente no entiendo tu comentario, ¿con qué crees que debería ser compatible Apple que a día de hoy no lo es? ¿Con Windows?
  42. #8 Es bloatware pero el reader hace más cosas, firma documentos y seguro que alguna conversión de formatos o rollos de sincronización y cuentas online hace.
    Los hay mejores? A todas todas.
  43. #40 Allá por el año 86 el objeto de tecnología de consumo de moda era el reproductor de vídeo... de aquellas todos mis amigos que tenían uno o era VHS o Beta, menos uno, y el pobre era el paria porque no podía alquilar nada en el videoclub... qué tiempos.
  44. Y ese tipo de procesadores quien los va a fabricar? Intel, AMD no se si estan por la labor.
  45. x86 es muy complejo por que tiene muchas implementaciones y funcionalidades....

    Vamonos a x86_64
    Metamos las funcionalidades que necesitamos a x86_64
    x86_64 es muy complejo por que tiene muchas implementaciones y funcionalidades....

    Vamonos a Arm...
    Metamos las funcionalidades que necesitamos a Arm...
    Arm es muy complejo por que tiene muchas implementaciones y funcionalidades...

    Vamonos a RISC-V y le metamos las funcionalidades que necesitamos...
    No se de que me suena esto.  media
  46. #33 la arquitectura POWER en general es muy potente.

    El problema es que tubo enfrente algo mucho más barato; Linux con x86_64.

    Y ahí se acabó todo.

    El commodity hardware con GNU Linux se cargó a UNIX y el hardware donde corría, con muchas otras cosas con ello.

    Aviso: Llevo 20 años con Linux. He hecho carrera y ganó dinero con ello.

    Pero algunos pasos se han dado demasiado rápido. Y no es culpa de Linux, sino como se ha usado

    Si alguien aquí tubo jamás la suerte de trabajar con Tru64/TruCluster y el AFS, sabra a que me refiero.

    Es una lastima que se perdiese todo eso.
  47. #29 los procesadores Ax ganan por goleada en rendimiento a los equivalentes Qualcomm o exynos de su respectiva generación
  48. A x86 lo llevan matando desde que nacio
    :-D
  49. #44 si hay colgados que fabrican el cerebras-ws2 y lo venden con garantías, hecho por TSMC, cualquier cosa más pequeña vale.
  50. #46 tuvo con v.
  51. #22 es.wikipedia.org/wiki/Guerra_de_formatos_de_cintas_de_video
    Cuando llegaron al mercado de España los vídeos, valían una buena pasta, ¡Ay de los pobres que escogiesen el 2000!; el Beta tampoco era una buena elección para el mercado doméstico, entre otras cosas por la poca proporción de películas que había en los videoclubs.
    De todas maneras, eso fue unos años después, cuando llegó la guerra de los formatos, en muchas familias de clase media u obrera, aún estábamos pagando los plazos del primer televisor a color. :troll:
  52. #45 Se te olvida la mayor diferencia, que es una implementación de código abierto: "Intel, AMD y ARM se basan en IP propietaria y las empresas venden y/o licencian sus productos. RISC-V es una especificación y una plataforma abiertas; no es un procesador de código abierto. Existen núcleos RISC-V de código abierto, pero también hay núcleos con licencia comercial." www.microcontrollertips.com/risc-v-vs-arm-vs-x86-whats-the-difference/
  53. Hoy día un ordenador RISC-V te sale por 600$ con la potencia de un x86 que te cueste 400$ ... el precio no lo es todo pero cuenta.

    SiFive HiFive Unmatched
    architecnologia.es/risc-v-pc

    ASUS ROG Strix H470 I Gaming + 16 Gb Ram + intel i3-10105
    rog.asus.com/motherboards/rog-strix/rog-strix-h470-i-gaming-model/
  54. #51 Nosotros teníamos VHS :-D Así que yo podía alquilar todas las pelis que quisiera. Creo recordar, que en uno de los videoclubs del pueblo había una sección para citas Beta.

    Así que Philips fue el de 2000. Fracasó estrepitosamente.
  55. #50 mi autocorrector en el teléfono dice que le da igual, porque no me lee.

    Y mis dedos, que porque las ponen juntas!

    Gracias!
  56. Los desarrolladores de software tienen que estar encantados. Una nueva plataforma PC que se une a arm.

    Básicamente ahora culaquier software profesional tiene que tener versión Windows, Linux y iOS combinados en plataformas hardware x86, arm o riscV.

    Para pegarse un tiro.

    #53 Lo que no encuentro por ningún lado es datos comparativos de velocidad de procesamiento
  57. #44 Intel andaba a vueltas con sifive para hacer de partner ya que les interesa está tecnología para hacerle la competencia a arm.
    www.anandtech.com/show/16777/intel-licenses-sifives-portfolio-for-inte

    De hecho estaban viendo para comprarla y fabricar sus chips

    www.tomshardware.com/news/intel-offers-dollar2-billion-for-risc-v-star
  58. Si quisiera fabricar un PC escogería sin duda un Zilog Z80.
  59. #15 Usa la arquitectura y el juego de instrucciones de ARM.
    Por supuesto tiene optimizaciones propias, del mismo modo que Qualcomm añade optimizaciones y cosas propias a sus Snapdragon, haciendo que estos sean mucho mejores que los de Mediatek, los de Samsung (Exynos) o los Kirin de Huawei, pero la base es el diseño y el I+D de ARM.

    AMD al principio usaba los diseños de Intel, no empezó a añadir cosas propias hasta los K5. Y el x86-64bits es totalmente una invención de AMD que licenció a Intel. Intel originalmente quería abandonar el x86 en favor de los Itanium, que resultaron ser un fracaso
  60. #37 ufff... si fuese por el porno, con los 60 minutos de Betamax original tendríamos mas que suficiente xD xD
  61. #56 encontré un vídeo corriendo Ubuntu. Joder menuda castaña por 600€ peor que una Raspberry:
    m.youtube.com/watch?v=bqekGqREf9k
  62. #10 Si tienes un software relativamente sencillo y diseñado para ser genérico y portable, quizá baste con eso. Pero date cuenta de que con la arquitectura no sólo estás cambiando las instrucciones de nombre como quien dice, es que muchas cosas que puede hacer un x86 o un arm actual son imposibles o casi mejor, impracticables, con un risc-v. No es simplemente "en lugar de ejecutar una instrucción, ejecuto las necesarias para definir un algoritmo que emule su comportamiento", que también aunque ejecutar ese algoritmo emulado sea 1000 veces más costoso, es que estamos hablando de arquitecturas, hay cosas que Risc-V simplemente no puede hacer a día de hoy (por ejemplo, ejecutar máquinas virtuales y si me apuras contenedores, porque no tiene extensiones de virtualización estandarizadas; creo que se estaba trabajando en ello; se puede hacer sin esas instrucciones, pero tendrías que modificar los hipervisores actuales que tiran de esas instrucciones, y todo eso... ¿a qué costo?).

    A Apple no le ha costado unos meses. Apple partía de un software que ya había desarrollado en su día y que tuvo que adaptar, tanto portar su software para que ejecute nativamente como el traductor para ejecutar software no nativo (el proceso internamente duraría años, aunque a nosotros nos parezca que todo estaba ya listo). Para portar su software de manera nativa tuvo que desarrollar o adaptar herramientas básicas (recrear los runtimes, compiladores, debugueadores, etc), como hacen su software muy optimizado y pegado a su hardware tienen que modificar todas las partes más dependientes del mismo en sus programas (por ejemplo, a su sistema operativo habrán tenido que reescribirle partes críticas, a las librerías que tiran de recursos del sistema, a los programas que usan características del sistema que ahora funcionan de manera diferente habrán tenido que incorporarles excepciones o manejar esos nuevos comportamientos, etc) y muchas más cosas. Parece sencillo (y más cuando te dicen que ya ha hecho esto otras veces) pero no lo es, lo único que la experiencia ayuda a diseñar hojas de ruta y transiciones de manera más eficiente; si esto lo intentara hacer otra empresa y partiendo de cero, se habrían pegado un castañazo de órdago.
  63. #16 Recompilar es cambiar el juego de instrucciones.

    Entiendo que no es moco de pavo cambiar de arquitectura, pero a nivel compilación, es usar un compilador que genere código de máquina de otra arquitectura.
  64. #15 No tengo nada de Apple ni lo quiero, pero decir que Apple no innovo en nada... no se, como que suena a incorrecto.
  65. Seguramente si a día de hoy fabricaras un pc risc, te comerias un colín a 2 manos
  66. #62 Te voy a poner un ejemplo.

    AMD diseñó su proyecto fusión con la idea de tomar una CPU X86_64 (un procesador) y unirla con una GPU (una gráfica) de la casa, de manera que pudieras tener un chip que aprovechara los elementos comunes de ambos (abaratando precio de no duplicar recursos y poder aprovechar ese espacio para añadir más unidades de computación, o lo que se quisiera) y además se viera potenciado por una serie de características novedosas en ese entonces, un híbrido que pudiera hacer frente a los procesadores de Intel con garantías.

    La idea base y uno de los pilares de fusion era: si tenemos una gráfica capaz de acceder a la memoria del sistema sin coste ni penalización alguna, podemos acelerar muchísimo operaciones que ahora mismo son muy lentas (las transferencias entre memoria del sistema y memoria gráfica tradicionalmente eran muy lentas primero por cuestión de saturar buses de sistema moviendo datos -el ancho de banda era muy limitado- y luego porque tenías que hacer copias de los mismos varias veces, resultando el proceso muy ineficiente; por poner un ejemplo probablemente irreal, si modificabas dinámicamente una textura tenías que copiarla de memoria de vídeo a memoria de sistema, retocarla y luego volver a copiarla de memoria de sistema a memoria de video... con el proyecto fusión se trabajaba directamente en la memoria del sistema, no habiendo transferencias y pudiendo acceder directamente a ella, sin copias, sin saturar buses), podemos hacer computación sobre grandes cantidades de datos con un mínimo esfuerzo (mientras la parte de CPU hacía sus cosas, la GPU podía realizar cálculos y computación sobre conjuntos de datos; al estar estos en memoria accesible, una vez más, no habían copias, acelerando muchísimo todo).

    En resumen, para poder aprovechar estas características especiales y aprovechar la eficiencia de estos procesadores, hay que programar adecuadamente para ellos. La esperanza de AMD era básicamente que se universalizara el uso de OpenCL en aplicaciones de todo tipo, donde su fusión podía marcar una diferencia importante con la competencia, cosa que no sucedió. Y es que no vale usar código genérico, porque el código genérico fuerza al sistema a hacer copias entre regiones de memoria porque si no, no funcionaría en el resto de hardware del mercado, y perdiendo así todas las ventajas que pudiera tener este hardware específico (esto es un ejemplo para ilustrar por qué adaptar el software es tan importante).

    Todo esto, sobre…   » ver todo el comentario
  67. #39 en mi casa había uno. Solamente teníamos documentales
  68. #27 Y de ahí, pasamos al Betacam.
  69. #27 Las cintas de 240 minutos eran en Long play que salió años después.
  70. #17 yo probé uno. Era de cintas reversibles, cara a y cara b, y se atascaba bastante. De muy pequeño :->
  71. #46 Aquí uno. Viniendo de mucho Linux en PC montado por mi mismo, aquellas estaciones Alpha parecían tanques invencibles ejecutando un sistema operativo familiar pero diferente que se las zampaba todas: recuerdo cómo me llamaba la atención que la interfaz gráfica (mwm a pelo, ni tan siquiera CDE) seguía respondiendo cuando la carga del sistema andaba disparada. De todas formas, ojo que igual lo que estamos echando de menos no son prestaciones concretas sino la sensación de "esto no es lo normal" que había por aquel entonces. ¿Qué pasos crees que se han dado demasiado rápido? ¿Qué tenía que haber pasado?
  72. #73 hasta hace unos 20 años, un proyecto de IT tenía partes definidas, equipos estructurados, que usaban lenguajes maduros y framework y herramientas completas, probadas y bien documentadas.

    Entonces si algo no funcionaba, se arreglaba o se extendía.

    Ahora el paradigma es otro. Si no funciona, no te partas los cuernos, usa un XaaS que te haga la función y tira.

    O si un framework se queda corto... Cambio de framework! En mitad de proyecto.

    Documentación? L o L

    Readme mal estructurado si tienes suerte.

    He tenido peleas malas con jefes de proyecto por querer documentar bien.

    ...

    Todo esto en parte es porque la máquina ha dejado de ser importante, el sistema operativo ha dejado de importar también, porque ambos son baratos y además cualquier desarrollador de medio pelo ahora te puede hacer se sysadmin ( L o L ), aunque no haga más que reusar una plantilla de aws o gcp.

    ...

    Que se ha perdido?

    El trabajo cuidado, la exactitud, el entregar proyectos acabados, donde una versión 1.0 tenga todo lo que necesita el servicio.

    ...

    Es todo así de malo? En absoluto. Pero la mayoría de cosas si.

    Antes teníamos menos pero de mayor calidad. Ahora es difícil encontrar nada buen lo entre tanta paja, tanto bandolero del software y tanto inutil pagado.
  73. #10 Para recompilar necesitas el código fuente. Muchos profesionales dependen de un software cuyo proveedor sólo te proporciona en formato binario, así que no pueden cambiar de arquitectura.
  74. #52 no cambiara cuando le metan mano, pero lo veo completamente para una solucion gubernamental, que la UE empiece a trabajar en ello, me parece genial, pero seamos realistas hasta dentro de 5 años no tendremos algo competente y entonces aun tendra alternativas mas eficaces con total seguridad.
  75. #76 El tema de tener que pagar licencias, conseguir permisos hace muy complicado y ralentiza el desarrollo de estos proyectos. Ahora estará por ver, pero en el mundo del software, está claro que Stallman tenía razón y el software propietario sigue dominando en la administración pero en el mundo empresarial el Opensource gana de lleno.
  76. #6 dejó tirados a loa usuarios? Y Rosetta?
  77. #68 buenísima explicación, muchas gracias :hug:
  78. #79 Se me olvidó comentar que claro, apple en su software se lo guisa y se lo come todo: si hace falta cambiar todo el sistema operativo, librerías de desarrollo y las aplicaciones de la casa para aprovechar una instrucción única de su hardware, se hace. Eso es en lo que generalmente consiste la diferencia entre aplicaciones genéricas que se notan torpes o lentas en otros sistemas (android, windows, etc) respecto a los equivalentes de apple, la optimización y adaptación del software al hardware.
comentarios cerrados

menéame